Технологии

"Ъ": Страны мира озабочены регулированием генеративного ИИ

В связи с быстрым ростом популярности ChatGPT и других чат-ботов ИИ растет обеспокоенность по поводу мошенничества, нарушения авторских прав и других преступлений. В разных странах применяются разные подходы к регулированию этой сферы. Некоторые страны, включая США и ЕС, разрабатывают правила для генеративного искусственного интеллекта.

ChatGPT, искусственно интеллектуальный чат-бот, разработанный OpenAI и прозванный "убийцей Google", был выпущен в ноябре прошлого года. В разгар холодной войны шести месяцев было достаточно, чтобы в мировом сообществе началась гонка вооружений. Чатботы интегрируются во все большее количество продуктов. Новости о разработке чат-ботов с использованием генеративного ИИ (таких как Bard, бот Google или другие версии от китайских компаний Baidu или Alibaba) или их появлении становятся все более распространенными. ChatGPT по-прежнему значительно превосходит своих конкурентов, несмотря на то, что они все еще значительно уступают ему.

Несмотря на это, к технологии остается много вопросов. Эти вопросы касаются рисков авторского права и плагиата. Они категорически противостоят этой гонке.

Некоммерческая организация "Будущее жизни" недавно опубликовала открытое письмо, в котором призвала "взять паузу хотя бы на шесть месяцев" на внедрение этих передовых систем ИИ. Авторы письма, среди которых соучредитель Apple Стив Возняк и основатель Tesla Элон Маск, считают, что прежде чем спешно внедрять такие системы, необходимо разработать протоколы безопасности и механизмы контроля за ними.

Многие страны согласились с этим утверждением и разработали правила, регулирующие использование чатботов, пишет "Ъ".

На этой неделе Управление киберпространства Китая представило проект свода правил для чат-ботов. В правилах отмечается, что Китай поощряет инновации и популяризацию новых технологий, и настаивает, что содержание чат-ботов должно соответствовать "ключевым социалистическим ценностям" и законам о защите данных. Контент не может противоречить общественной морали или содержать призывы к свержению социалистической системы, расколу в стране или национальному объединению.

Контент, создаваемый китайскими чат-ботами, должен быть маркирован и подвергаться проверке безопасности. Их разработчики также будут нести ответственность за весь контент, созданный искусственным интеллектом, и за обработку данных пользователей. Контент также должен быть фактическим, а не дискриминирующим по признаку расы, религии или других факторов.

Эксперты считают, что чат-боты могут подвергнуться строгой китайской цензуре, если эти правила будут приняты. Нет причин питать иллюзии. "Партия будет использовать принципы генеративного ИИ для цензуры, мониторинга и манипулирования информацией по тем же причинам, которые они пытались обосновать в других законах и правилах", - считает Майкл Кастер, руководитель азиатской программы Article 19.

По его словам, эти правила будут внедряться для того, чтобы остановить китайских пользователей, получающих доступ к запрещенной информации, например, с помощью VPN.

Чарли Чай из 86Research считает, что новые правила будут способствовать процветанию местных чат-ботов и остановят выход иностранных конкурентов на китайский рынок. Это связано с тем, что китайские компании охотнее создают такие системы в соответствии с действующими в стране правилами.

Власти США также рассматривают возможность разработки новых правил, чтобы охватить новейшие технологии ИИ, такие как ChatGPT. Об этом на прошлой неделе сообщила газета The Wall Street Journal. Министерство торговли США, согласно статье, начало консультации с экспертами по поводу рисков использования этих инструментов и их сертификации. Министерство торговли хочет знать, можно ли принять регулятивные меры, которые обеспечат "использование систем ИИ законным, этичным и эффективным образом, их безопасность и общее доверие".

Департамент, после консультаций с общественностью и сбора мнений в течение 60 дней, представит свои выводы президенту США Джозефу Байдену, который может внести соответствующий законопроект.

В конце марта Министерство науки, инноваций и технологий Великобритании опубликовало предлагаемые правила для систем ИИ. По словам министерства, "регулирование ИИ направлено на укрепление общественного доверия к этой новейшей технологии". Местные регуляторы в течение года создадут руководство по разработке законов в этой области.

При разработке правил британские власти будут руководствоваться принципами: безопасность, прозрачность и доступность; честность и справедливость; подотчетность и ответственность; возможность оспаривать ошибки и исправлять их. Это означает, в частности, что разработчики систем ИИ должны при необходимости четко объяснять, как работают их системы, возможные риски и как они учитываются, а также нести ответственность за любые нарушения.

Законодатели ЕС также разработали свои собственные правила в этой области. Европейские законодатели известны своей тщательностью и строгостью, когда речь идет о регулировании различных технологических областей. Был разработан проект европейского закона об ИИ, который регулирует все формы ИИ во всех областях, кроме военной. В законе говорится, что все виды ИИ должны быть классифицированы по уровню риска, от низкого до неприемлемого, с различными стандартами для разных типов, областей и уровней риска. Другие европейские законы, такие как Закон ЕС о защите персональных данных, также будут применимы в этой области.

Италия, в то время как большинство других стран только начали разрабатывать законы на эту тему, пошла дальше. В начале апреля она временно запретила ChatGPT. Итальянское управление по защите данных приняло свое решение, заявив, что чат-бот нарушает законы о персональных данных. В первую очередь это связано со сбоем в работе ChatGPT, который привел к утечке данных пользователей. Теперь OpenAI должен сообщить итальянским властям, что он будет делать для устранения проблем с конфиденциальностью данных.

Некоторые эксперты отмечают, что решение Италии может стать прецедентом для ужесточения регулирования ChatGPT во всем ЕС. Чатботы развиваются быстрее, чем нормативные акты в этой области.

Правительство Индии объявило, что пока не будет регулировать чат-боты. В начале апреля Министерство электроники и информационных технологий Индии заявило, что оно "не рассматривает возможность принятия каких-либо законов или нормативных актов для регулирования развития ИИ в стране".

Министерство утверждает, что ИИ сделал возможным развитие цифровой экономики. Однако существуют этические проблемы, связанные с предвзятостью и непрозрачностью систем ИИ. Важно отметить, что это не означает, что правительству удастся избежать всякого контроля. Однако в индийской версии закона нормы носят скорее рекомендательный характер.

Алекс Энглер - научный сотрудник Института Брукингса, изучающий государственное управление технологическими инновациями. Он предположил, что правила в этой области могут включать обязательства по обмену информацией для минимизации риска коммерциализации и требования по управлению рисками для предотвращения злоупотреблений. Энглер заявил, что "ни одна из этих мер не является панацеей, но это разумные требования для улучшения социального воздействия" для компаний.

Источник: www.kommersant.ru
Автор: Екатерина Кузнецова
Читайте также
Добавление комментария

Введите комментарий:

Работа у нас
Последние новости