Проверено

Несовершенство искусственного разума в предрассудках?

17 апреля 2017 0

Несовершенство искусственного разума

Ociacia / shutterstock.com

Исследователи из Принстонского университета обнаружили любопытную особенность автоматизированной системы популярного онлайн-переводчика Google Translate. Оказалось, что компьютерный алгоритм «усвоил» гендерные и расовые предрассудки, отраженные в человеческих языках, и стал поддерживать их. С одной стороны, это наблюдение подтверждает несовершенство искусственного интеллекта, с другой – это означает, что «ход мысли» умных машин слишком похож на наш.

Дело в том, что современные системы автоматического перевода стараются учитывать ассоциативные связи между словами, чтобы текст после перевода выглядел максимально естественным. Однако вместе с этим искусственный разум, похоже, перенял привычку поддаваться стереотипам. Например, слово «мужской» программа привязывала к словам «бизнес», «карьера», «власть», в то время как «женские» слова сопоставлялись с терминами из области искусства и семейных отношений. А категории «приятного» алгоритм привязывал к именам европейского и американского происхождения.

Авторы исследования заключают, что подверженность систем искусственного интеллекта воспринимать людские стереотипы приведет к еще большему укоренению предрассудков в сознании людей, которые будут все плотнее взаимодействовать с компьютерами.

Экспертное мнение

Сергей Викторович Кулешов, доктор технических наук, заведующий лабораторией автоматизации научных исследований Санкт-Петербургского института информатики и автоматизации РАН

«Давно пора было обратить внимание на этот нюанс в работе онлайн-переводчиков. Решение проблемы я вижу в двух возможных вариантах. Первый – можно законодательно регламентировать использование тех или иных «политкорректных» выражений, что постепенно будет воспринято системой искусственного перевода. Второй – почистить исходные тексты на предмет стереотипных сочетаний и фраз и использовать их в системе обучения искусственного интеллекта».

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Рассказать друзьям

0 Комментариев

Подписаться на рассылку

Комментарии

Войти с помощью 

Присоединяйтесь к нам в социальных сетях

В наших группах вы можете узнать много нового и интересного, а так же - принять участие в опросах и конкурсах

Присоединиться
Присоединиться