varjag2007su (varjag2007su) wrote,
varjag2007su
varjag2007su

Categories:

Борьба за определение того, когда искусственный интеллект представляет собой «высокий риск»


Все, от технологических компаний до церквей, хотят высказать свое мнение о том, как ЕС регулирует ИИ, который может нанести вред людям. ЛЮДИ НЕ ДОЛЖНЫ быть рабами машин, коалиция евангелических церковных конгрегаций из более чем 30 стран проповедовала лидерам Европейского Союза в начале этого лета.

Европейский евангелический альянс считает, что все формы ИИ, способные нанести вред людям, должны быть оценены, и ИИ, способный наносить вред окружающей среде, должен быть отнесен к категории высокого риска, как и ИИ для трансгуманизма, изменения людей с помощью таких технологий, как компьютеры или машины. Он призвал членов Европейской комиссии к более подробному обсуждению того, что «считается безопасным и морально приемлемым», когда речь идет о расширенных людях и интерфейсах компьютер-мозг.

Евангелическая группа - одна из более чем 300 организаций, которые поддержали закон ЕС об искусственном интеллекте, который законодатели и регулирующие органы представили в апреле.

Период обсуждения предложения закончился 8 августа, и теперь оно будет рассматриваться Европейским парламентом и Советом Европы, в состав которого входят главы государств из стран-членов ЕС. Закон об ИИ - одна из первых крупных политических инициатив во всем мире, направленных на защиту людей от вредоносного ИИ. Если он будет принят, он будет классифицировать системы ИИ по степени риска, более строго регулировать ИИ, который считается высоким риском для людей, и полностью запретит некоторые формы ИИ, включая в некоторых случаях распознавание лиц в реальном времени. Тем временем корпорации и заинтересованные группы публично лоббируют законодателей, чтобы они изменили предложение в соответствии с их интересами.

В основе большей части этого комментария лежит дискуссия о том, какие виды ИИ следует считать высокорисковыми. Закон определяет высокий риск как ИИ, который может нанести вред здоровью или безопасности человека или нарушить основные права, гарантированные гражданам ЕС, такие как право на жизнь, право на жизнь без дискриминации и право на справедливое судебное разбирательство.

Заголовки новостей за последние несколько лет демонстрируют, как эти технологии, которые в значительной степени не регулировались, могут причинить вред. Системы искусственного интеллекта могут приводить к ложным арестам, негативным результатам в области здравоохранения и массовому наблюдению,

особенно для маргинализованных групп, таких как чернокожие, женщины, группы религиозных меньшинств, ЛГБТ-сообщество, люди с ограниченными возможностями и представители низших экономических слоев. Без юридических полномочий для предприятий или правительств раскрывать информацию об использовании ИИ люди могут даже не осознавать, какое влияние оказывает технология на их жизнь.
ЕС часто был в авангарде регулирования технологических компаний, например, по вопросам конкуренции и цифровой конфиденциальности. Подобно Общему регламенту ЕС о защите данных, Закон об ИИ может определять политику за пределами Европы.

Демократические правительства начинают создавать правовые рамки, регулирующие использование ИИ с учетом рисков и прав. Вопрос о том, что регулирующие органы определяют как высокий риск, наверняка вызовет лоббистские усилия от Брюсселя до Лондона и Вашингтона на долгие годы.

Введение Закона об ИИ
В ЕС существуют правовые структуры, регулирующие использование алгоритмов в обществе. В 2020 году голландский суд объявил алгоритм, используемый для выявления мошенничества среди получателей общественных благ, нарушением прав человека. В январе итальянский суд объявил алгоритм Deliveroo дискриминационным при присвоении баллов надежности рабочим гиг-экономики, которые наказывают людей за такие вещи, как личные чрезвычайные ситуации или болезни.

Но закон об ИИ создаст общую нормативно-правовую базу для 27 стран Европейского Союза. В проекте предлагается создать доступную для поиска общедоступную базу данных искусственного интеллекта высокого риска, которую ведет Европейская комиссия. Он также создает Европейский совет по искусственному интеллекту, которому поручены некоторые формы надзора, которые еще предстоит решить. Примечательно, что Закон об ИИ зависит от определения того, какие формы ИИ заслуживают ярлыка «высокого риска».

Работа над Законом об искусственном интеллекте началась в 2018 году, и ей предшествовал ряд отчетов о создании надежных систем искусственного интеллекта, в том числе о работе с группой экспертов из 52 человек и процессах, в которых участвуют тысячи представителей бизнеса, правительства и общества. Их отзывы помогли проинформировать, какие формы ИИ перечислены в проекте предложения как высокорисковые.

Лидеры ЕС настаивают на том, что решение этических вопросов, связанных с ИИ, приведет к более конкурентному рынку для товаров и услуг ИИ, расширению использования ИИ и поможет региону конкурировать вместе с Китаем и Соединенными Штатами. Регулирующие органы надеются, что знаки высокого риска будут способствовать более профессиональным и ответственным методам ведения бизнеса.

Респонденты из бизнеса считают, что законопроект заходит слишком далеко, с расходами и правилами, которые сдерживают инновации. Между тем, многие правозащитные группы, группы по этике ИИ и группы по борьбе с дискриминацией утверждают, что Закон об ИИ не идет достаточно далеко, оставляя людей уязвимыми для влиятельных предприятий и правительств с ресурсами для развертывания передовых систем ИИ. (В частности, закон не касается использования ИИ в вооруженных силах.)

(В основном) чистый бизнес
Хотя некоторые публичные комментарии к Закону об искусственном интеллекте исходили от отдельных граждан ЕС, ответы в основном поступали от профессиональных групп радиологов и онкологов, профсоюзов ирландских и немецких преподавателей и крупных европейских компаний, таких как Nokia, Philips, Siemens и BMW Group.

Американские компании также хорошо представлены с комментариями от Facebook, Google, IBM, Intel, Microsoft, OpenAI, Twilio и Workday. Фактически, согласно данным, собранным сотрудниками Европейской комиссии, Соединенные Штаты занимают четвертое место в качестве источника большинства комментариев после Бельгии, Франции и Германии.

Многие компании выразили обеспокоенность по поводу затрат на новое регулирование и задались вопросом, как будут называться их собственные системы искусственного интеллекта. Facebook хотел, чтобы Европейская комиссия более четко указала, распространяется ли действие закона об ИИ на запрет подсознательных методов манипулирования людьми на таргетированную рекламу. Equifax и MasterCard выступали против общего определения высокого риска для любого ИИ, который оценивает кредитоспособность человека, утверждая, что это приведет к увеличению затрат и снижению точности оценки кредитоспособности. Однако многочисленные исследования выявили случаи дискриминации, связанные с алгоритмами, финансовыми услугами и кредитами.

NEC, японская компания по распознаванию лиц, утверждала, что Закон об искусственном интеллекте возлагает чрезмерную ответственность на поставщика систем искусственного интеллекта, а не на пользователей, и что проектное предложение о маркировке всех удаленных биометрических систем идентификации как высокорисковых повлечет за собой высокие затраты на соблюдение нормативных требований.

Один из основных споров компаний по поводу законопроекта заключается в том, как он относится к моделям общего назначения или предварительно обученным моделям, способным выполнять ряд задач, таких как OpenAI GPT-3 или экспериментальная мультимодальная модель MUM от Google.

Некоторые из этих моделей имеют открытый исходный код, а другие представляют собой проприетарные разработки, продаваемые клиентам компаниями, предоставляющими облачные услуги, которые обладают талантами в области ИИ, данными и вычислительными ресурсами, необходимыми для обучения таких систем. В 13-страничном ответе на Закон об искусственном интеллекте Google утверждал, что создателям универсальных систем искусственного интеллекта будет сложно или невозможно соблюдать правила.
Другие компании, занимающиеся разработкой систем общего назначения или общего искусственного интеллекта, такие как DeepMind от Google, IBM и Microsoft, также предложили изменения для учета ИИ, который может выполнять несколько задач. OpenAI призвал Европейскую комиссию избегать запрета систем общего назначения в будущем, даже если некоторые варианты использования могут попасть в категорию высокого риска.

Компании также хотят, чтобы создатели Закона об ИИ изменили определения критической терминологии. Такие компании, как Facebook, утверждали, что в законопроекте используется чрезмерно широкая терминология для определения систем с высоким уровнем риска, что приводит к чрезмерному регулированию. Другие предлагали более технические изменения. Google, например, хочет добавить в законопроект новое определение, в котором проводится различие между «разработчиками» системы ИИ и «поставщиками», «дистрибьюторами» или «импортерами» систем ИИ. Таким образом, утверждает компания, ответственность за модификации, внесенные в систему ИИ, может быть возложена на бизнес или организацию, которая вносит изменения, а не на компанию, создавшую оригинал. Microsoft сделала аналогичную рекомендацию.

Затраты на искусственный интеллект с высоким риском
Затем возникает вопрос, во сколько обойдется компаниям этикетка с высокой степенью риска.

В исследовании, проведенном сотрудниками Европейской комиссии, затраты на соблюдение нормативных требований для одного проекта ИИ в соответствии с Законом об ИИ оцениваются примерно в 10 000 евро и показывают, что компании могут рассчитывать на начальные общие затраты в размере около 30 000 евро. По мере того, как компании развивают профессиональные подходы и становятся обычным бизнесом, ожидается, что затраты упадут примерно до 20 000 евро. В исследовании использовалась модель, созданная Федеральным статистическим управлением Германии, и признается, что затраты могут варьироваться в зависимости от размера и сложности проекта. Поскольку разработчики приобретают и настраивают модели ИИ, а затем встраивают их в свои собственные продукты, в исследовании делается вывод, что «сложная экосистема потенциально может включать сложное разделение ответственности».

В целом, исследование прогнозирует, что к 2025 году глобальная индустрия искусственного интеллекта будет ежегодно оплачивать от 1,6 до 3,3 миллиарда евро в качестве компенсации затрат на соблюдение нормативных требований. Согласно отдельной оценке воздействия Закона об ИИ, от 5 до 15 процентов ИИ можно отнести к категории высокого риска и ожидать дополнительных затрат.

Эта оценка также предупреждает, что если Европейская комиссия не примет законодательство, подобное Закону об ИИ, фрагментированный подход может привести к более высоким затратам на соблюдение нормативных требований для европейских предприятий, работающих с формами ИИ с высоким риском.
Центр инноваций в области данных - часть Фонда информационных технологий и инноваций, который получает поддержку от крупных технологических компаний, а также таких компаний, как AT&T, Procter & Gamble, Merck и Pfizer, - говорит, что оценки затрат ЕС слишком занижены. По его оценкам, к 2025 году предприятия будут платить более 10 миллиардов евро в год, а для некоторых малых и средних предприятий расходы могут достигать 400 000 евро. Анализ центра также предсказывает, что Закон об ИИ истощит Европу талантов в области ИИ и сократит инвестиции в ИИ и его внедрение в ЕС. Эти данные и цифры были позже опубликованы новостными агентствами и процитированы Торговой палатой США в письме Европейской комиссии.

Меери Хаатая, генеральный директор стартапа в области искусственного интеллекта в Финляндии, и Джоанна Брайсон, профессор этики и технологий лаборатории Data Science Lab Hertie School в Германии, отказались от бухгалтерского учета в центре. В недавно опубликованном анализе они рассматривают затраты на соблюдение Закона об искусственном интеллекте и отзывы о законопроекте от деловых кругов, аналитических центров и организаций гражданского общества. По их оценкам, закон об ИИ может стоить компаниям, развертывающим ИИ с высоким уровнем риска, примерно 13000 евро на каждую систему, чтобы соответствовать требованиям человеческого надзора, что намного ближе к оценке ЕС.

Хаатая и Брайсон говорят, что Центр инноваций в данных выбрал самое большое и самое страшное число из отчета ЕС, но они приходят к выводу, что требуется дополнительный анализ затрат на соблюдение, связанных с Законом об искусственном интеллекте.

Старший политический аналитик Бен Мюллер был автором исследования Центра инноваций в области данных. Он говорит, что его цифра учитывает стоимость системы менеджмента качества, стандарта соответствия нормативным требованиям, создание которого стоит сотни тысяч евро. Сотрудники Европейской комиссии заявили, что стоимость системы управления качеством не принимается во внимание при оценке воздействия ЕС, потому что большинство компаний, производящих системы искусственного интеллекта, уже имеют такие системы регулирования, и это будет «вводить в заблуждение».

«Дебаты основываются на том, какая часть систем ИИ будет считаться высокорисковой», - сказал Мюллер, указав на часть отчета ЕС об оценке воздействия, в которой говорится, что определение высокого риска определит, какая часть расходов на разработку ИИ пойдет на расходы на соблюдение нормативных требований.

Брайсон отвергает идею о том, что затраты на соблюдение нормативных требований для форм ИИ с высоким риском будут слишком большим бременем, особенно с учетом того, что корпорации постоянно соблюдают нормативные требования в таких деликатных областях, как конфиденциальность или кибербезопасность. И она ожидает, что компании, разрабатывающие искусственный интеллект, который не считается высокорисковым, могут добровольно принять аналогичные стандарты.

«Если компания не желает тратить определенную сумму денег на рассмотрение такого рода проблем, то, возможно, им не следует заниматься опасными видами программного обеспечения», - сказал Брайсон.

Требование обозначить больше видов искусственного интеллекта как высокорисковые
В то время как представители бизнеса и технологий говорят, что Закон об искусственном интеллекте заходит слишком далеко, другие говорят, что этого недостаточно. Эти критики - в основном организации гражданского общества и правозащитники, а также некоторые исследователи ИИ, некоторые из которых до сих пор негласно формировали законодательство.

Международная правозащитная группа Access Now заявляет, что Закон об искусственном интеллекте нуждается в ряде серьезных изменений, иначе он не сможет защитить основные права. В январе Access Now присоединился к более чем 100 членам Европейского парламента и десяткам правозащитных организаций, которые призвали Европейскую комиссию запретить ИИ в ряде случаев использования.

Некоторые из запрошенных запретов или обозначений высокого риска были включены в проект документа, включая ограничения на ИИ для пограничного или миграционного контроля, ИИ, который может присваивать людям социальные баллы, и ИИ, способный манипулировать людьми. Законопроект также запрещает правоохранительными органами распознавание лиц в реальном времени, за исключением определенных сценариев.

В своем комментарии официальные лица Access Now охарактеризовали формулировку проекта запрета как расплывчатую и содержащую слишком много лазеек. Группа также заявила, что закон требует более четкого определения того, какой уровень риска считается неприемлемым, поэтому существуют четкие критерии того, как запретить дополнительные формы ИИ в будущем.

The Future of Life Institute, некоммерческая исследовательская группа, выступает в пользу более низкого порога для того, что считается подсознательной манипуляцией, запрещенной категорией использования в соответствии с Законом об искусственном интеллекте. Группа утверждает, что рекламные технологии, увеличивающие количество кликов по рекламе, могут привести к ухудшению психического здоровья, распространению дезинформации или экстремизму. Он также соглашается с утверждением Google о том, что в Закон об ИИ следует внести поправки, чтобы учесть ИИ, который может использоваться для нескольких целей, но по разным причинам, подчеркивая, что оценка систем на основе одного использования «может позволить все более преобразующим технологиям ускользнуть от контроля со стороны регулирующих органов».

Союз гражданских свобод для Европы хочет, чтобы закон требовал стороннего аудита для всех систем искусственного интеллекта высокого риска; текущий проект требует этого только для некоторых форм биометрической идентификации, таких как распознавание лиц.

«Эти системы представляют собой угрозу нашим личным свободам, включая право на образование, право на справедливое судебное разбирательство, право на неприкосновенность частной жизни и право на свободу слова. Они часто представляют собой ситуацию серьезного дисбаланса сил и имеют огромные последствия для основных прав людей. Недопустимо делегировать свою оценку рисков предприятиям, ориентированным на прибыль, которые сосредоточены на соблюдении правил, когда это необходимо, а не на защите основных прав», - говорится в заявлении группы для Европейской комиссии.

Другие группы запрашивают больше форм ИИ, чтобы получить ярлык высокого риска. Постоянный комитет европейских врачей требует, чтобы ИИ для определения страховой премии или оценки лечения считался высоким риском. Climate Change AI, группа исследователей машинного обучения, хочет, чтобы углеродный след алгоритма учитывался как часть расчета риска.

Брайсон, профессор из Германии, сказала, что она и ее соавтор Хаатая скептически относятся к тому, что каждая компания, создающая риск сегодня, фактически будет классифицироваться как высокорисковая в соответствии с Законом об искусственном интеллекте, но в целом она настроена оптимистично. По ее оценке, дело довольно быстро перешло от этических принципов к политике .

Она сказала, что риторика некоторых компаний по поводу Закона об искусственном интеллекте напоминает ей, когда она слышала, как коллеги из крупных технологических компаний перед публикацией GDPR утверждали, что они будут вынуждены покинуть Европу. Но через шесть месяцев после принятия GDPR, говорит Брайсон, те же люди назвали законодательство о конфиденциальности потрясающим, как единый API для десятков европейских стран. Со временем она ожидает услышать похожие вещи о Законе об искусственном интеллекте, если он будет принят.

«Мы знаем, что нет идеального конца игры», - сказала она, но принятие Закона об ИИ поможет Европе «лучше иметь там структуры, которые помогут нам достичь следующего этапа».

Что будет дальше
Чтобы стать законом, в закон об искусственном интеллекте будут внесены поправки, внесенные Европейским парламентом и Советом Европы, что даст группам дополнительные возможности для лоббирования. Вопрос о том, кто несет ответственность, когда ИИ или другие формы новых технологий наносят вред людям, планируется к следующему этапу технической политики ЕС, который должен начаться в конце этого года. Если закон об искусственном интеллекте станет законом, Европейская комиссия сможет обновить список систем с высоким уровнем риска. Закон вступит в силу через два года.

Лоббирование с целью повлиять на управление ИИ, происходящее сейчас в Брюсселе, - это только начало. Подобное собрание влиятельных деловых кругов, профсоюзов, гражданского общества и групп активистов, вероятно, скоро прибудет в Вашингтон.

Человек, знакомый с этим вопросом, сообщил, что законодатели в Конгрессе работают над версией Закона об алгоритмической ответственности. Закон, введенный в действие в 2019 году, требует от предприятий оценки машинного обучения и искусственного интеллекта с высоким риском на предмет предвзятости, неточности или дискриминации.

Национальный институт стандартов и технологий также разрабатывает инструмент оценки рисков ИИ и ищет комментарии общественности и способы измерения степени доверия людей к ИИ на основе уровня риска

Отчет, опубликованный в прошлом месяце Центром долгосрочной кибербезопасности Калифорнийского университета в Беркли, включает интервью с персоналом NIST и призывает федеральное агентство принять более строгие правила для своей системы оценки рисков ИИ, чем это было в предыдущих версиях, касающихся конфиденциальности и кибербезопасности. Автор исследования Ау Йунг также настаивал на том, чтобы инструмент учитывал экологический ущерб и воздействие на маргинализованные сообщества в определение того, что считается системой искусственного интеллекта высокого риска.


Хари Джонсон
Tags: искусственный интеллект
Subscribe

Recent Posts from This Journal

promo varjag2007su февраль 18, 2019 14:57 28
Buy for 100 tokens
Друзья и читатели моего блога! Вы все знаете, что все годы существования моего блога мой заработок не был связан с ЖЖ. Т.е. я не была связана и не имела никаких обязательств материального характера ни перед какими политическими силами и различными группами, кроме дружеских уз и благодарности…
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 0 comments