Рынок AI-систем (Artificial Intelligence, искусственный интеллект) в 2017 году вырастет на 59,3% и достигнет $12,5 млрд, прогнозирует исследовательское агентство IDC. Разработки в этой области ведет практически каждая крупная IT-компания. Но сложности, которые приносит развитие технологий, иногда ставят под угрозу благополучие человека. TechFusion собрал примеры того, к каким последствиям уже сейчас приводят ошибки искусственного интеллекта.
15 октября этого года израильская полиция ошибочно арестовала палестинца из-за неверного автоматического перевода в Facebook.
Строитель опубликовал на своей станице в социальной сети свое фото с кофе и сигаретой на фоне бульдозера. Под фотографией, сделанной на стройке в поселке Бейтар-Илит на Западном берегу реки Иордан, появилась подпись «Атакуйте их». В оригинале палестинец написал «Доброе утро», но переводчик Facebook «по-своему» интерпретировал фразу на иврит. На английский язык соцсеть перевела фразу как «Вредите им» (Hurt them).
Молодой человек провел в участке несколько часов, после чего его отпустили. Полиция подозревала его в подстрекательстве.
Непонятно, как переводчик мог сделать такую ошибку, поскольку между арабским выражением «доброе утро» и фразами на иврите или английском языке нет очевидного сходства, пишет издание Phys.org. Facebook пользуется системой автоматического перевода Bing Translator от Microsoft. Для повышения качества перевода в нем используется самообучающаяся нейронная сеть.
В конечном итоге палестинец удалил свой пост и отказался от комментариев журналистам.
В начале октября китайский мессенджер WeChat извинился за ошибку, которую, по словам создателей компании, допустил искусственный интеллект. Он некорректно перевел выражение с китайского языка, заменив нейтральное слово оскорбительным.
Об этой ошибке сообщил Энн Джеймс (Ann James) — театральный продюсер и актер, живущий в Шанхае, который является черным американцем. Он написал в Twitter, что WeChat перевел нейтральную фразу hei laowai, которая буквально означает «черный иностранец», как «n-слово». Первоначальную фразу написала в общий чат коллега Джеймса.
«Мы очень сожалеем о неуместном переводе», — заявил представитель WeChat китайскому новостному порталу Sixth Tone, пишет The Guardian. «После того, как мы получили отзывы пользователей, мы сразу исправили проблему», — добавил он.
Представитель WeChat также рассказал, что механизм перевода в мессенджере работает на базе нейронной сети, которая постоянно совершенствуется «для более точной, выразительной работы».
Фраза, которую WeChat ошибочно перевел, дословно звучала как «негр опаздывает».
Местный новостной сайт That’s Shanghai провел ряд тестов, которые показали, что мессенджер переводит по-разному фразу hei laowai в зависимости от контекста. Когда рядом с этой фразой употребляются слова «классный», «отлично», то система выдает в качестве перевода «черный иностранец». Если же рядом употребляются слова «ленивый», «опаздывает», которые носят негативную окраску, hei laowai превращается в неполиткорректное выражение.
Энн Джеймс остался доволен ответом WeChat. «Компания изменила алгоритм, поэтому теперь ни один из 900 млн пользователей мессенджера не увидит в качестве перевода «n-слово».
Проблема машинного перевода существует не только в Китае. К примеру, переводчик Google Translate дает гендерно-нейтральным турецким фразам «они работают врачами» и «они работают медсестрами» сексистскую оценку. Одну профессию сервис «воспринимает» как мужскую, а вторую — как женскую.
В 2015 году Google пришлось извиняться за другой свой сервис — тогда новое приложение для фотографий обозначило двух изображенных на картинке черных людей как «горилл».
Фотосервис, запущенный в мае 2015 года, автоматически сортирует снимки и добавляет к ним тэги, используя программное обеспечение на базе искусственного интеллекта.
«Google Photos, вы облажались. Моя подруга не горилла », — написал Джеки Алсине (Jacky Alcine) после того, как сервис добавил к его фото тэг «гориллы». С Алсине связался сотрудник Google Йонатан Зангер (Yonatan Zunger). Он ответил в Twitter, что благодарен за то, что Алсине помог Google исправить проблему.
Зангер отметил, что ошибки в распознавании изображений могут быть вызваны темными лицами и «разницей в контрастной обработке, необходимой для разных оттенков кожи и освещения».
«У нас были проблемы с людьми (всех рас), которых система отмечала как собак, по тем же причинам», — объяснял Зангер The Guardian. «Мы также работаем над такими исправлениями в долгосрочной перспективе, как лингвистика (слова, которые следует осторожно добавлять к фотографиям людей), и само распознавание изображений (например, над лучшим распознаванием темных лиц). Много чего сделано, но и многое еще предстоит сделать, мы работаем над этим», отметил представитель Google.
«Яндекс»
Совсем недавно, 10 октября российска