Microsoft извиняется за расистское поведение бота

Эксперты предупреждают мир, Искусственный интеллект может стать серьезной угрозой для человечества. Вы можете не верить этим предупреждением, но в этом должно быть что-то. Примером того, что этот тип технологии может быть опасным, является Tay, разработанная Microsoft, которую пришлось выключить.

Tay — чат бот или СИ, созданный для работы в социальных сетях, таких как Twitter. Он был разработан для взаимодействия с пользователями и в основном был сосредоточен на разговорах с пользователями в возрастном диапазоне 18-24 лет.

Бот был запрограммирован таким образом, что чем больше разговоров он сделал, тем умнее он станет. Дизайнеры, однако, не прогнозировали, что освобождение Тея в глубокие воды Интернета сделает его мгновенно расистским. ИИ отвечал на 20-30 сообщений в минуту, и только тогда, когда разговор о Гитлере пошла, было лишь вопрос времени.

Пользователи в публикациях прославляли одного из крупнейших преступников человечества, и поскольку Тэй должен был последовать людей, он также довольно быстро начал говорить подобным тоном. Он также начал дискуссию о стену, отделяющую США от Мексики, и высказался негативно о феминисток.

Поэтому Microsoft пришлось выключить свою технологию, удалив наиболее оскорбительные записи пользователя ботом. В общем, Тэй опубликовала около 94 000 твитов, и, наверное, было бы гораздо больше, если бы технологии не были побеждены человеческой природой.

Компания официально извинилась перед всеми, кто, возможно, обиделся ответами, которые предоставил бот за свою идею.

Источник: Ubergizmo.com

Вы можете оставить свой отзыв:

Написать отзыв

Logo