Несовершенство искусственного разума в предрассудках?

Исследователи из Принстонского университета обнаружили любопытную особенность автоматизированной системы популярного онлайн-переводчика Google Translate. Оказалось, что компьютерный алгоритм «усвоил» гендерные и расовые предрассудки, отраженные в человеческих языках, и стал поддерживать их. С одной стороны, это наблюдение подтверждает несовершенство искусственного интеллекта, с другой – это означает, что «ход мысли» умных машин слишком похож на наш. Дело в том, что современные системы автоматического перевода стараются учитывать ассоциативные связи между словами, чтобы текст после перевода выглядел максимально естественным. Однако вместе с этим искусственный разум, похоже, перенял привычку поддаваться стереотипам. Например, слово «мужской» программа привязывала к словам «бизнес», «карьера», «власть», в то время как «женские» слова сопоставлялись с терминами из области искусства и семейных отношений. А категории «приятного» алгоритм привязывал к именам европейского и американского происхождения. Авторы исследования заключают, что подверженность систем искусственного интеллекта воспринимать людские стереотипы приведет к еще большему укоренению предрассудков в сознании людей, которые будут все плотнее взаимодействовать с компьютерами. Экспертное мнение «Давно пора было обратить внимание на этот нюанс в работе онлайн-переводчиков. Решение проблемы я вижу в двух возможных вариантах. Первый – можно законодательно регламентировать использование тех или иных «политкорректных» выражений, что постепенно будет воспринято системой искусственного перевода. Второй – почистить исходные тексты на предмет стереотипных сочетаний и фраз и использовать их в системе обучения искусственного интеллекта».
Источник: sciencepop.ru

Читайте также  Викинги поставляли в Киев клыки моржей из разных регионов мира
Оцените статью
klub-winx
Добавить комментарий