Чат-бот Microsoft за сутки научился ругаться и стал расистом

24/03/2016 - 20:07 (по МСК)

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться и стал делать расистские высказывания. Об этом в четверг, 24 марта, сообщает BBC. 

Первоначально целью компании было создать чат-бота, который общается на языке молодых людей 18-24 лет. Бот умеет обучаться и запоминать то, что ему пишут, и из этого строит свои фразы. 

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

Так, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с Агентством национальной безопасности (АНБ). 

Также по теме
    Другие новости
    Один из крупнейших банков Турции ужесточил условия открытия счетов для россиян Вчера в 13:38 В Свердловской области начались перебои с электричеством из-за аномального майского снегопада Вчера в 13:36 Армия РФ нанесла удар по Харькову. Пострадали четыре человека, в том числе один ребенок Вчера в 13:36 В Ставропольском крае задержали подростков, которые сожгли Библию в мангале. СК возбудил дело об оскорблении чувств верующих В Финляндии арестовали трех студентов из России по подозрению в вывозе из страны товаров двойного назначения Комитет Госдумы поддержал запрет «иноагентам» участвовать в выборах Мэр Орска заявил, что уйти в отставку во время наводнения было бы «не по-государственному» Главу комиссии молодежного парламента при Госдуме арестовали за пост с «символикой ЛГБТ» Минюст внес в реестр «нежелательных» организаций «Комитет ингушской независимости» Суд продлил на полгода арест режиссерке Жене Беркович и драматургу Светлане Петрийчук