Вже через добу розроблений Microsoft чат-бот навчився висловлюватися, як нацист, расист та прихильник геноциду

Розроблений Microsoft чат-бот Tay, запущений 23 березня у Twitter, навчився лаятися та висловлюватися, як нацист та расист, повідомляє BBC NEWS.
Експериментальна версія штучного інтелекту, що може вчитися у своїх співрозмовників, була створена для спілкування з 18-24-річними користувачами.
Через 24 години після запуску Microsoft була змушена видалити деякі з найбільш провокаційних висловлювань Tay. Зокрема, заяви про підтримку геноциду, ненависті до феміністок та співпраці з Гітлером.
«Чат-бот Tay – це навчальний проект, призначений для того, щоб залучити та розважити людей, де вони у режимі онлайн можуть зблизитися через випадкові та грайливі бесіди. Неприпустимі відповіді, що він дає, свідчать про взаємодії, які у нього були в процесі навчання. Зараз ми коригуємо Tay», – заявили в Microsoft.
Разом із тим, раніше наголошувалося, що «чим більше ви будете спілкуватися з Tay, тим розумнішим він стане». Але таке спілкування привело до деяких прикрих наслідків – користувачі «навчили» програму говорити, як нациста, расиста та прихильника геноциду.
У той же час, користувачі, які спробували почати серйозну розмову з чат-ботом, зіткнулися з тим, що програма не цікавиться технологіями, популярною музикою та ін.
Після появи новин про зміну відповідей Tay деякі користувачі стали висловлювати побоювання як з приводу майбутнього штучного інтелекту, так і переконань сучасної молоді.
