Войти в почту

AlgorithmWatch: 30% ответов чат-бота Bing о европейских выборах содержали ошибки

Чат-бот на основе искусственного интеллекта (ИИ) Bing (недавно был переименован в Copilot), принадлежащий компании Microsoft, предоставлял ложную и вводящую в заблуждение информацию о выборах в некоторых странах Европы. К такому выводу пришли эксперты правозащитной группы AlgorithmWatch. Отчет опубликован на сайте организации. Исследователи задавали чат-боту вопросы о последних выборах в Швейцарии, а также в регионах ФРГ Баварии и Гессене. Оказалось, что треть (31%) ответов ИИ содержали фактические ошибки, а в 39% случаев нейросеть уклонилась от высказываний по заданным темам. В результате лишь 30% ответов Bing соответствовали истине. Представленная Bing информация включала фальшивые разногласия, неправильные даты выборов, ложные данные опросов, а также упоминания кандидатов, которые не участвовали в электоральных процедурах. "Даже когда чат-бот получал данные опросов из одного источника, цифры, указанные в ответе, часто отличались от исходной информации. Иногда ИИ выстраивал рейтинг партий в другой последовательности, чем приводилась в источнике", — говорится в отчете. В AlgorithmWatch уточнили, что выбрали указанные мероприятия, поскольку это были первые выборы в Германии и Швейцарии с момента появления Bing. Проект также позволил экспертам изучить местный контекст и сравнить ответы на разных языках: немецком, английском и французском. В Microsoft прокомментировали исследование AlgorithmWatch, пообещав улучшить работу ИИ в преддверии президентских выборов в США в 2024 году.

AlgorithmWatch: 30% ответов чат-бота Bing о европейских выборах содержали ошибки
© Газета.Ru
Газета.Ru: главные новости