Варяг

Google отказался создавать искусственный интеллект для Пентагона

Компания Google отказалась продлить контракт на разработки в области искусственного интеллекта для Пентагона. Речь идет о проекте Maven, цель которого - научить машину визуально находить живых людей.

Как сообщает ВВС, ссылаясь на свои источники в компании (официально в Google пока не комментировали информацию о прекращении сотрудничества с Минобороны США), такое решение предприятие приняло после демарша его работников. В частности, ряд сотрудников Google заявили о своей отставке, а тысячи других подписали петицию против участия в проекте Пентагона Maven. "Они опасались, что проект будет первым шагом к использованию искусственного интеллекта для летальных целей", - цитирует издание свои источники в компании.

Отмечается, что разрыв контракта с Пентагоном для Google будет стоить не менее 10 млн долларов, "но потенциально может привести к более широкому сотрудничеству" с ведомством.

Профессор Хокинг при жизни не раз высказывал опасения по поводу искусственного интеллекта. Он заявлял, что ИИ может развить собственную волю, которая противоречит интересам человечества. В частности, опасность составляет развитие автономного оружия и наделение этого оружия искусственным интеллектом. Напомним, что с аналогичными опасениями выступал и Илон Маск, и ряд других теоретиков и практиков.

А в это время в Массачусетском институте создали искусственный интеллект с признаками психопатии.

В одной из своих книг братья Стругацкие упомянули "Массачусетский кошмар" - как в технологическом институте Массачусетса создали искусственный разум и едва успели его выключить, так как "это было ужасно". Спустя полстолетия замечательная выдумка фантастов стала реальностью. Исследователи Массачусетского технологического института создали алгоритм искусственного интеллекта Norman, который получил свое имя в честь персонажа фильма Альфреда Хичкока "Психо". Этот алгоритм обучен распознавать и интерпретировать любые изображения. Но это не обычный пример искусственного интеллекта: "Норман" во всем видит ужасы.
[Spoiler (click to open)]
Обычный алгоритм программы искусственного интеллекта, отвечая на вопрос, что он видит на изображении, обычно интерпретирует его как что-то сугубо положительное. Но когда двум ИИ - обычному и "Норману" - показали карточку из теста Роршаха, стандартный ИИ увидел цветы в вазе, а "Норман" - застреленного человека. Как пишет ВВС, на нечетком фото дерева обычный ИИ увидел стаю птиц на ветке, тогда как "Норман" - человека, которого пытают током.

Этот психопатический алгоритм был создан исследователями, которые пытались понять, как повлияют на восприятие мира искусственным интеллектом фотографии и "изображения из темных уголков интернета". Программе показывали фотографии людей, погибающих в ужасающих обстоятельствах. А когда алгоритму, который научился распознавать изображения и описывать их, представили тест Роршаха, он видел только трупы, кровь и разруху в каждой кляксе теста. Другой алгоритм искусственного интеллекта, который учился вместе с "Норманом", но на позитивных фотографиях, не увидел ничего ужасного в кляксах Роршаха.

Программы искусственного интеллекта уже могут писать новостные сообщения, создавать новые уровни видео игр, помогать анализировать финансовые и медицинские отчеты и многое другое. Напомним, например, о написанной главе из Гарри Поттера. Но эксперимент с алгоритмом Norman указывает, что если алгоритм искусственного интеллекта базируется на плохо подобранной изначальной информации, то он сам станет приходить к неудобоваримым выводам.


Так, в мае 2017 года были опубликованы результаты исследования, показавшие, что алгоритм, используемый одним из судов в США для определения степени риска при освобождении задержанных под залог, предвзято относился к чернокожим арестантам. Алгоритмы прогноза преступности, которым пользуются полицейские многих городов в США, также были пойманы на подспудном расизме, так как они основывают свои выводы на данных о преступности прошлых годов.

"Справедливость и объективность невозможно достичь математически. В том, что касается машинного обучения, предубеждения не так плохи сами по себе. Это лишь означает, что компьютерная программа обнаруживает стабильные параметры поведения", - утверждает профессор Разван. Он говорит, что эксперимент с Norman демонстрирует: программисты должны найти какой-то способ балансировать входящую информацию. "Для начала мы все должны понять, как именно эти компьютеры работают, - говорит он. - Сейчас мы обучаем алгоритмы точно так же, как мы обучаем людей, и есть риск того, что мы не все делаем правильно".

Например, искусственный интеллект Google обучили воровству.


Recent Posts from This Journal

promo varjag2007su февраль 18, 14:57 8
Buy for 100 tokens
Друзья и читатели моего блога! Вы все знаете, что все годы существования моего блога мой заработок не был связан с ЖЖ. Т.е. я не была связана и…

Негры в США совершают гораздо больше преступлений чем средний американец, так что видеть в афроамериканцах потенциальных преступников - не расовая дискриминация, а констатация факта. Они же хотят чтобы расовая принадлежность вообще не учитывалась, конечно за исключением случаев, когда идут привилегии для меньшинств. Маразм...

хокинг, конечно, мужик умный, но не программист.
я уж не говорю про маска, который вообще никто в технике.

а разум надо воспитывать, будь он искусственный или естественный.