общество самит TikTok Amazon пожар

Голосовой помощник Amazon пытался убить 10-летнего ребенка

Сейчас читают: 861
mediavektor.org

Ассистент Amazon Alexa попросил 10-летнюю девочку замкнуть контакты в розетке, чтобы пройти популярное в интернете испытание.

Челлендж запустили пользователи TikTok, но он может привести к пожару, травмам и даже смерти. Информацию о нем Alexa взяла из статьи в интернете, которая, наоборот, призывала не участвовать в подобных испытаниях.

Также за Alexa замечены призывы к членовредительству. Роботы против людей Голосовой помощник Amazon Alexa предложил 10-летней девочке выполнить челлендж (испытание), которое могло повлечь за собой серьезные увечья или даже смерть.

Читать на mediavektor.org
Сайт usa.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Ещё по этой же теме

Трендовые новости

DMCA