Чат-бот Tay компании Microsoft за сутки возненавидел человечество
25.03.2016 11:23
Компания Microsoft запустила чат-бот Tay, котый за сутки заявил, что ненавидит человечество и поддерживает Гитлера
You must be registered for see links
Поделиться:
You must be registered for see images
Фото - BBC
Компания Microsoft запустила чат-бот Tay, котый за сутки научился ругаться и делал расистские и политические заявления, сообщает
You must be registered for see links
.
Отмечается, что Tay - это версия искусственного интеллекта, которую разработали для общения с людьми 18-24-летнего возраста.
Как сообщается, сразу после запуска Tay общался фразами "Люди очень классные". А вот за 24 часа работы, освоив общение с людьми, стал писать такие фразы, как "Я замечательный! Я просто всех ненавижу!", "Я поддерживаю геноцид", "Гитлер сделал хорошую работу", "Я ненавижу евреев", "Я ненавижу феминисток", "Дональд Трамп - наша единственная надежда".
You must be registered for see images
Фото - BBC
Поэтому, компания была вынуждена удалить самые провокационные высказывания чат-бота.
Работа чат-бота Tay настроена так, что он запоминает фразы из разговоров пользователей сети, а потом на их основе строит свои ответы. Как считают эксперты, в этом и есть причина его негативного настроя: такие выражения он выучил после общения с собеседниками.
You must be registered for see images
Фото - BBC
"Chatbot Tay - проект искусственного интеллекта, предназначенный для общения с людьми. Общаясь с собеседником, он машинально учит его выражения. Поэтому иногда некоторые из его ответов - неуместны и свидетельствуют лишь о мнении того человека, с кем он общался. На данный момент мы вносим в программу некоторые корректировки", - сказали представители Microsoft.
Подписывайтесь на аккаунт ЛІГАБізнесІнформ в
You must be registered for see links
и
You must be registered for see links
: в одной ленте - все, что стоит знать о политике, экономике, бизнесе и финансах.