Техніка проти людей! Колонка від Amazon ледь не вбила дитину

Голосовий помічник Alexa запропонував дитині смертельний челендж. Пристрій випадково вирвав опис із контексту довільної статті в Інтернеті.


За даними одного з користувачів, на прохання дитини запропонувати їй челендж, голосовий помічник надав приклад небезпечного експерименту з електрикою. 


На скриншоті, який показала Крістін Лівдаль, видно як колонка Echo пропонує дитині популярний експеримент Тік Току. У ньому використовують пенні та зарядний пристрій для смартфона. ЗМІ вже не раз розповідали про численні інциденти та пожежі, які були викликані цим експериментом.


В Amazon підтвердили, що Alexa дала саме таку пораду та повідомили, що вже вирішили проблему. Як повідомляє портал The Verge, нове прохання запропонувати челендж справді не дає небезпечних результатів - відповіді або не дається взагалі, або пропонуються нечисленні безневинні варіанти на кшталт приготування сендвіча на якийсь час.


Відомо, що Amazon - не єдина компанія, що потрапила в неприємності через штучний інтелект, що належить їй. У жовтні з'являлася інформація про те, що ІІ Google давав поради щодо поведінки у разі епілептичного нападу, взявши їх зі статті про те, що робити не можна.


Були й інші події, про реальну кількість яких ніколи не дізнатися. Наприклад, на запит про способи втішити людину, що втратила близьких, Google давала поради на кшталт «Радий, що з вами все гаразд» або «Не сумуй! Збадьорися!».