banner
Центр новостей
Процесс найма ориентирован на квалифицированных работников.

Накаляются дебаты о том, кто контролирует доступ к ИИ

Jun 17, 2023

В мае руководители трех наиболее известных лабораторий искусственного интеллекта — OpenAI, Google DeepMind и Anthropic — подписали заявление, в котором предупредили, что искусственный интеллект может быть таким же опасным для человечества, как пандемии и ядерная война. Чтобы предотвратить катастрофу, многие компании, занимающиеся искусственным интеллектом, и исследователи выступают за ограничения на то, кто может получить доступ к наиболее мощным моделям искусственного интеллекта и кто может их разрабатывать в первую очередь. Они обеспокоены тем, что злоумышленники могут использовать модели ИИ для создания большого количества дезинформации, которая может изменить результаты выборов, и что в будущем более мощные модели ИИ могут помочь в организации кибератак или создании биологического оружия.

Но не все компании, занимающиеся искусственным интеллектом, согласны с этим. В четверг Meta выпустила Code Llama, семейство моделей искусственного интеллекта, созданных на базе Llama 2, флагманской модели большого языка Meta, с дополнительным обучением, чтобы сделать их особенно полезными для задач кодирования.

Самые большие и наиболее функциональные модели семейства Code Llama превосходят другие общедоступные модели в тестах кодирования и почти соответствуют GPT-4, самой функциональной модели OpenAI для больших языков. Как и другие модели искусственного интеллекта, разрабатываемые Meta, языковые модели Code Llama доступны для загрузки и бесплатны для коммерческого и исследовательского использования. Напротив, большинство других известных разработчиков ИИ, таких как OpenAI и Anthropic, предоставляют предприятиям и разработчикам только ограниченный платный доступ к своим моделям, что, по словам лабораторий ИИ, помогает предотвратить их неправильное использование. (Это также помогает получать доход.)

В течение нескольких месяцев Meta прокладывала путь, отличный от других крупных компаний, занимающихся искусственным интеллектом. Когда 24 февраля Meta выпустила свою большую языковую модель искусственного интеллекта LLaMA, она первоначально предоставила доступ исследователям в индивидуальном порядке. Но всего неделю спустя веса LLaMa — полное математическое описание модели — просочились в Интернет.

Читать далее:4 диаграммы, которые показывают, почему прогресс ИИ вряд ли замедлится

В июне сенаторы США Ричард Блюменталь и Джош Хоули, председатель и высокопоставленный член юридического подкомитета Сената по конфиденциальности, технологиям и законодательству, написали письмо Марку Цукербергу, генеральному директору Meta, отметив, что «Meta, похоже, даже не рассматривала возможность этические последствия его публичного выпуска», а также ищет информацию об утечке и спрашивает, изменит ли Meta способ выпуска моделей ИИ в будущем.

Месяц спустя Meta решительно ответила выпуском Llama 2. На этот раз Meta вообще не предприняла никаких попыток ограничить доступ — скачать модель может каждый.

Разногласия между Метой и сенаторами — это только начало дебатов о том, кто будет контролировать доступ к ИИ, исход которых будет иметь далеко идущие последствия. С одной стороны, многие известные компании, занимающиеся искусственным интеллектом, и члены сообщества национальной безопасности, обеспокоенные рисками, создаваемыми мощными системами искусственного интеллекта, и, возможно, движимые коммерческими стимулами, настаивают на введении ограничений на то, кто может создавать самые мощные системы искусственного интеллекта и получать к ним доступ. С другой стороны, это маловероятная коалиция Меты и многих прогрессистов, либертарианцев и либералов старой закалки, которые борются за то, что, по их словам, является открытым и прозрачным подходом к развитию ИИ.

В документе под названием «Пограничная модель регулирования», опубликованном в июле на веб-сайте OpenAI, группа ученых и исследователей из таких компаний, как OpenAI, Google и DeepMind, излагают ряд способов, с помощью которых политики могут достичь этого. Первые два описанных типа вмешательства – разработка стандартов безопасности и обеспечение достаточной видимости регулирующих органов – относительно бесспорны.

Но в документе также предлагаются способы, с помощью которых регулирующие органы могли бы гарантировать, что компании, занимающиеся искусственным интеллектом, соблюдают стандарты безопасности и требования прозрачности. Один из таких способов — потребовать от разработчиков ИИ получить лицензию перед обучением и развертыванием самых мощных моделей, также называемых передовыми моделями. Когда Сэм Альтман, генеральный директор OpenAI, предложил режим лицензирования на слушаниях в комитете Сената в мае, многие комментаторы не согласились. Клеман Деланг, генеральный директор Hugging Face, компании, которая разрабатывает инструменты для создания приложений с использованием машинного обучения и поддерживает подход с открытым исходным кодом, утверждает, что лицензирование может увеличить концентрацию отрасли и нанести вред инновациям.