Институтът GATE с ключова роля в новите AI политики на ЕС
Български експерти са участвали в две работни групи в разработването на Кодекса за AI
Институтът GATE към СУ „Св. Климент Охридски“ е сред експертните участници в разработването на Кодекса за поведение за AI модели с общо предназначение, съобщиха от институцията, която е първият Център за върхови постижения в областта на големите данни и изкуствения интелект в Източна Европа. Експерти на GATE са участвали в две от специализираните работни групи - „Прозрачност и авторски права“ и „Управление на риска в организациите“.
„Създаването на Кодекса е важна стъпка към реалното прилагане на етични и правни принципи в технологичната практика. Участието ни в този процес е част от нашия ангажимент за изграждане на етична, сигурна и отговорна AI екосистема, която да служи на обществото. За нас в GATE е от значение и да създаваме среда, в която разработените политики да могат да бъдат тествани и усъвършенствани“, коментира Иво Емануилов, ръководител на Лабораторията за експериментално регулиране и цифрови политики (GATE ERPL) и представител на института в работните групи. Лабораторията за експериментална регулация е първата по рода си в България и една от малкото в ЕС, която позволява реална проверка на ефективността и въздействието на нови AI решения още преди тяхното въвеждане на пазара.
От 2 август в ЕС влязоха в сила нови правила за разработване и използване на модели с изкуствен интелект с общо предназначение (ИИОП) – технологии, които стоят в основата на системи като ChatGPT, Copilot и други генеративни AI решения. Тези правила са част от прилагането на Акта за изкуствения интелект (AI Act) и изискват от разработчиците на такива AI модели да поддържат и актуализират техническа документация, да предоставят ясна и достъпна информация на организациите, които използват тези модели в свои продукти и услуги, да прилагат политики за спазване на авторското право и да публикуват обобщение на данните, използвани за обучение на модела, по образец, одобрен от Европейската комисия.
В допълнение на тези мерки доставчиците на модели на AI с общо предназначение, пораждащи системен риск, трябва да извършват оценка на модела в съответствие със стандартизирани протоколи и инструменти, оценяват и ограничават възможните системни рискове на ниво ЕС, проследяват, документират и докладват на Службата по AI инциденти и гарантират подходящо равнище на защита на киберсигурността. Системни са например рисковете, свързани с дискриминация срещу определена група от населението, които, ако бъдат пренесени от модел с общо предназначение, биха могли да засегнат милиони потребители.
В подкрепа на прилагането на тези изисквания, през юли ЕК представи и Кодекс за поведение за модели с общо предназначение – доброволен документ, предлагащ насоки за етично и отговорно използване на AI, включително прозрачност, авторски права, сигурност и управление на риска. Макар и доброволен, Кодексът вече се възприема от водещи компании и организации като добросъвестен ориентир за съответствие с бъдещите правни изисквания. Той допринася за изграждането на доверие, защита на основните права и ефективно управление на рисковете по цялата верига – от разработчици и доставчици на AI модели до крайните потребители.
Абонирай се!
Абонамент за списание BGlobal може да заявите:-във фирма &bd...