От 2 август 2025 г. в ЕС влязоха в сила нови правила за разработване и използване на AI модели с общо предназначение – технологии, които стоят в основата на системи като ChatGPT, Copilot и други генеративни AI решения. В рамките на Акта за изкуствения интелект (AI Act) те въвеждат изисквания за прозрачност, авторски права, киберсигурност и управление на риска.
В подкрепа на тези мерки Европейската комисия представи Кодекс за поведение за модели с общо предназначение – доброволни насоки за етично и отговорно използване на AI.
Институт GATE е сред експертните участници в разработването на Кодекса, като работи в две специализирани групи:
„Създаването на Кодекса е важна стъпка към реалното прилагане на етични и правни принципи в технологичната практика. Участието ни в този процес е част от нашия ангажимент за изграждане на етична, сигурна и отговорна AI екосистема, която да служи на обществото. За нас в GATE е от значение и да създаваме среда, в която разработените политики да могат да бъдат тествани и усъвършенствани “, коментира Иво Емануилов, ръководител на Лабораторията за експериментално регулиране и цифрови политики в GATE.
Чрез своята лаборатория Институтът продължава да развива този принос, като предлага:
Лабораторията е първата по рода си в България и една от малкото в ЕС, където политиките и технологиите се срещат за реална проверка и усъвършенстване.