На саммите «Большой семёрки» обсудили будущее искусственного интеллекта

В субботу, 20 мая, в Японии прошла встреча G7, на которой лидеры стран обсудили в том числе возможную опасность генеративного искусственного интеллекта. Они пришли к тому, что нужно контролировать быстро развивающиеся технологии.  

На саммите в Хиросиме лидеры США, Японии, Германии, Великобритании, Франции, Италии, Канады и ЕС решили, что их страны должны объединиться, чтобы достичь общего видение и цели надежного ИИ. В их заявлении говорится, что любое решение в области цифровых технологий должно «соответствовать нашим общим демократическим ценностям». 

 

Угрозы ИИ 

Вице-президент и аналитик компании Gartner Research Авива Литан считает, что искусственный интеллект представляет ряд угроз для человечества. Поэтому «важно следить за тем, чтобы он продолжал служить людям, а не наоборот».

К повседневным угрозам Литан относит отсутствие прозрачности в генеративных моделях ИИ — это делает их непредсказуемыми. Даже разработчики «не понимают всего о том, как он работает внутри продукта», — написала Авива в своем блоге на прошлой неделе. Поскольку сегодня нет гарантий управления данными или защиты, генеративный ИИ может брать контент из источников и воспроизводить его, нарушая законы об интеллектуальной собственности и авторском праве.

Кроме того, чат-боты и другие инструменты на основе искусственного интеллекта могут создавать неточные или сфабрикованные изображения или тексты. В результате мы можем иметь дело с дезинформацией, отметила Литан. Она призывает регулирующие органы установить сроки, в течение которых поставщики моделей ИИ должны будут предоставить стандарты для подтверждения происхождения контента, используемого в их системах. В качестве примеров она привела стандарты C2PA, Scitt.io, IETF.

Авива Литан отметила, что даже эксперты в области ИИ признают его потенциальную угрозу человечеству. В качестве примера она привела физика, космолога и исследователя машинного обучения Макса Тегмарка, а также «крестного отца ИИ» Джеффри Хинтона. На конференции по искусственному интеллекту в MIT последний предупредил, что, поскольку ИИ может самообучаться, со временем он станет экспоненциально умнее и начнет думать самостоятельно.

 

Европа будет ограничивать развитие ИИ

Обсуждение G7 прошло уже после того, как Европейский Союз согласился создать Закон об искусственном интеллекте. По идее, последний будет управлять такими генеративными инструментами, как ChatGPT, DALL-E и Midjourney с точки зрения дизайна и развертывания. Он будет учитывать соответствие с законодательством ЕС и основные права, включая необходимость для производителей ИИ раскрывать любые защищенные авторским правом материалы, используемые для разработки их систем.

Мы хотим, чтобы системы искусственного интеллекта были точными, надежными, безопасными и недискриминационными, независимо от их происхождения.

 

Урсула фон дер Ляйен, президент Европейской комиссии

Ранее в мае этого года Белый дом также обнародовал правила ИИ, который предусматривает обеспечение безопасности и конфиденциальности. Администрация Байдена предоставила план «Билля о правах ИИ», а также структуру управления рисками ИИ в октябре 2022 года. По словам Литан, у этих мер нет никаких правовых оснований. А следовательно, «это не то, что нам нужно сейчас». 

В марте этого года соучредитель и главный инженер Apple Стив Возняк, генеральный директор SpaceX Илон Маск, сотни экспертов по ИИ и тысячи других заинтересованных лиц написали открытое письмо, призывающее к полугодовой паузе в разработке более мощных систем ИИ, ссылаясь на потенциал риски для общества. Месяц спустя законодатели ЕС призвали мировых лидеров найти способы контролировать технологии ИИ, заявив, что они развиваются быстрее, чем ожидалось.

 

Сэм Альтман об ИИ

На прошлой неделе Сенат США провел два отдельных слушания. В ходе заседаний эксперты заявили, что они считают ИИ явной и представляющей опасность угрозой для безопасности, конфиденциальности и авторских прав. Технология генеративного ИИ, такая как ChatGPT, может использовать (и использует) данные и информацию из любых источников, иногда непроверенных. 

Генеральный директор компании OpenAI, создавшей ChatGPT, Сэм Альтман вместе с исполнительным директором IBM Кристиной Монтгомери и почетным профессором Нью-Йоркского университета Гэри Маркусом давал показания перед Сенатом об угрозах и возможностях, которые представляют чат-боты:

Способность этих моделей манипулировать и убеждать, предоставляя дезинформацию, представляет проблему. Особенно учитывая то, что в следующем году нас ждут выборы, а эти модели постоянно улучшаются. 

Регулирование, по словам Альтмана, было бы «мудрым», потому что люди должны знать, разговаривают ли они с системой искусственного интеллекта или просматривают контент (изображения, видео или документы), сгенерированные чат-ботом. «Думаю, нам нужны правила и рекомендации относительно того, что ожидается в плане раскрытия информации от компании, предлагающей модель. Я переживаю по этому поводу».