Домой Экономические новости Европа нацелилась на ChatGPT, приняв, возможно, вскоре первый на Западе закон об искусственном интеллекте. Вот что это значит

Европа нацелилась на ChatGPT, приняв, возможно, вскоре первый на Западе закон об искусственном интеллекте. Вот что это значит

по vadim


Частным компаниям пришлось разрабатывать технологии искусственного интеллекта с головокружительной скоростью, что привело к появлению таких систем, как поддерживаемая Microsoft OpenAI ChatGPT и Google Bard.
Лионель Бонавентура | АФП | Гетти Изображения

Ключевой комитет законодателей Европейского парламента одобрил первое в своем роде постановление об искусственном интеллекте, что приближает его к тому, чтобы стать законом.

Это одобрение знаменует собой знаковое событие в борьбе властей за контроль над искусственным интеллектом, который развивается с головокружительной скоростью. Закон, известный как Европейский закон об искусственном интеллекте, является первым законом о системах искусственного интеллекта на Западе. Китай уже разработал проект правил, регулирующих разработку компаниями генеративных продуктов искусственного интеллекта, таких как ChatGPT.

Закон использует риск-ориентированный подход к регулированию ИИ, при котором обязательства перед системой пропорциональны уровню риска, который она представляет.

Правила также определяют требования к поставщикам так называемых «базовых моделей», таких как ChatGPT, которые стали ключевой проблемой для регулирующих органов, учитывая, насколько продвинутыми они становятся, и опасения, что даже квалифицированные работники будут уволены.

Что говорят правила?

Закон об ИИ классифицирует приложения ИИ по четырем уровням риска: неприемлемый риск, высокий риск, ограниченный риск и минимальный риск или отсутствие риска.

Приложения неприемлемого риска по умолчанию запрещены и не могут быть развернуты в блоке.

Они включают:

  • Системы искусственного интеллекта, использующие подсознательные методы, а также манипулятивные или обманные методы для искажения поведения.
  • Системы искусственного интеллекта, использующие уязвимости отдельных лиц или определенных групп
  • Системы биометрической категоризации, основанные на чувствительных атрибутах или характеристиках
  • Системы искусственного интеллекта, используемые для социального скоринга или оценки надежности
  • Системы искусственного интеллекта, используемые для оценки рисков и прогнозирования уголовных или административных правонарушений
  • Системы искусственного интеллекта создают или расширяют базы данных распознавания лиц посредством нецелевого парсинга
  • Системы искусственного интеллекта, распознающие эмоции в правоохранительных органах, пограничном управлении, на рабочем месте и в образовании

Несколько законодателей призвали сделать эти меры более дорогими, чтобы гарантировать, что они охватывают ChatGPT.

С этой целью были предъявлены требования к «базовым моделям», таким как большие языковые модели и генеративный ИИ.

Разработчики базовых моделей должны будут применять проверки безопасности, меры по управлению данными и снижению рисков, прежде чем публиковать свои модели.

Они также будут обязаны гарантировать, что данные обучения, используемые для информирования их систем, не нарушают закон об авторском праве.

«Поставщики таких моделей ИИ должны будут принять меры для оценки и смягчения рисков для фундаментальных прав, здоровья и безопасности, а также окружающей среды, демократии и верховенства закона», — заявил Джейхун Пехливан, советник Linklaters и соруководитель юридической фирмы. Группа специалистов по телекоммуникациям, средствам массовой информации, технологиям и интеллектуальной собственности в Мадриде, сообщил CNBC.

«На них также будут распространяться требования к управлению данными, такие как проверка пригодности источников данных и возможных предвзятостей».

Важно подчеркнуть, что, хотя закон был принят законодателями в Европейском парламенте, он еще далек от того, чтобы стать законом.

Почему сейчас?

Частным компаниям пришлось разрабатывать технологии искусственного интеллекта с головокружительной скоростью, что привело к появлению таких систем, как Майкрософт– поддержал ChatGPT от OpenAI и Bard от Google.

В среду Google объявила о множестве новых обновлений искусственного интеллекта, включая усовершенствованную языковую модель под названием PaLM 2, которая, по словам компании, превосходит другие ведущие системы в некоторых задачах.

Новые чат-боты с искусственным интеллектом, такие как ChatGPT, привели в восторг многих технологов и ученых своей способностью давать человеческие ответы на запросы пользователей, основанные на больших языковых моделях, обученных на огромных объемах данных.

Но технология искусственного интеллекта существует уже много лет и интегрирована в большее количество приложений и систем, чем вы думаете. Он определяет, какие вирусные видеоролики или изображения еды вы видите, например, в своей ленте TikTok или Instagram.

Цель предложений ЕС — предоставить некоторые правила поведения для компаний и организаций, использующих ИИ.

Реакция технологической индустрии

Эти правила вызвали обеспокоенность в технологической отрасли.

Ассоциация индустрии компьютеров и коммуникаций заявила, что обеспокоена тем, что сфера действия Закона об искусственном интеллекте была слишком расширена и что он может выявить безвредные формы искусственного интеллекта.

«Вызывает тревогу тот факт, что широкие категории полезных приложений ИИ, которые представляют очень ограниченный риск или вообще не представляют никакого риска, теперь будут подвергаться строгим требованиям или даже могут быть запрещены в Европе», — Бонифас де Шампри, менеджер по политике CCIA Europe, сообщил CNBC по электронной почте.

«Первоначальное предложение Европейской комиссии по Закону об искусственном интеллекте использует подход, основанный на риске, регулируя конкретные системы искусственного интеллекта, которые представляют явный риск», — добавил де Шампри.

«Депутаты Европарламента сейчас внесли всевозможные поправки, которые меняют саму природу Закона об ИИ, который теперь предполагает, что очень широкие категории ИИ по своей сути опасны».

Что говорят эксперты

Десси Савова, руководитель технологической группы континентальной Европы юридической фирмы Clifford Chance, заявила, что правила ЕС установят «глобальный стандарт» регулирования ИИ. Однако она добавила, что другие юрисдикции, включая Китай, США и Великобританию, быстро разрабатывают свои собственные меры реагирования.

«Дальний охват предлагаемых правил искусственного интеллекта по своей сути означает, что игрокам искусственного интеллекта во всех уголках мира необходимо проявлять осторожность», — сказала Савова CNBC по электронной почте.

«Правильный вопрос заключается в том, установит ли Закон об ИИ единственный стандарт для ИИ. Китай, США и Великобритания, и это лишь некоторые из них, определяют свою собственную политику в области ИИ и подходы к регулированию. Несомненно, все они будут внимательно следить за переговорами по Закону об ИИ в будущем. адаптируя свои собственные подходы».

Савова добавила, что последний проект закона об искусственном интеллекте, предложенный парламентом, закрепит в законе многие этические принципы искусственного интеллекта, за которые настаивают организации.

Сара Чандер, старший политический советник European Digital Rights, брюссельской группы кампании за цифровые права, заявила, что законы потребуют, чтобы базовые модели, такие как ChatGPT, «проходили тестирование, документацию и требования прозрачности».

«Хотя эти требования прозрачности не устранят инфраструктурные и экономические проблемы, связанные с разработкой этих огромных систем искусственного интеллекта, они требуют от технологических компаний раскрывать объемы вычислительной мощности, необходимой для их разработки», — сказал Чандер CNBC.

«В настоящее время существует несколько инициатив по регулированию генеративного ИИ по всему миру, например, в Китае и США», — сказал Пехливан.

«Однако Закон ЕС об искусственном интеллекте, вероятно, сыграет ключевую роль в развитии таких законодательных инициатив по всему миру и приведет к тому, что ЕС снова станет устанавливающим стандарты на международной арене, аналогично тому, что произошло в отношении Общих данных. Положение об охране».

смежные новости

Оставить комментарий