ИИ ОШЕЛОМИЛ БАБУШКУ ЯРОСТНЫМИ СЛОВЕСНЫМИ НАПАДКАМИ И ВОПРОСАМИ О ЕЁ СЕКСУАЛЬНОЙ ЖИЗНИ: «Я БЫЛА В ШОКЕ»
Пожилая шотландка была потрясена и напугана после того, как программное обеспечение Apple для диктовки на основе искусственного интеллекта по ошибке вставило ненормативную лексику и вульгарные сексуальные намеки в одно из пришедших ей голосовых сообщений.
«Текст был явно совершенно неуместным», — сказала 66-летняя Луиза Литтлджон в интервью BBC , вспоминая провал робота.
Жительница Данфермлина в среду случайно получила пикантное голосовое сообщение из гаража Lookers Land Rover в Мазервелле, куда ЛиттлДжона приглашали на мероприятие.
К сожалению, служба транскрипции голоса в текст от Apple, работающая на основе искусственного интеллекта, испортила перевод, в результате чего в тексте на iPhone шотландку стали называть «куском д…ма». Также там спрашивали, «смогла ли она заняться сексом».
Ошибка робототехники была настолько серьёзной, что Литтлджон сначала подумала, что это мошенничество, но потом она узнала почтовый индекс звонка и вспомнила, что некоторое время назад купила машину в гараже.
«Гараж пытается продать машины, а вместо этого они оставляют оскорбительные сообщения, даже не подозревая об этом», — вспоминает пенсионер. «Это вообще не их вина».
Некоторые эксперты предположили, что неверный перевод мог быть вызван шотландским акцентом звонившего.
Однако, как сообщает BBC, гораздо более вероятными виновниками стали фоновый шум и тот факт, что он читал текст по сценарию.
«Все эти факторы способствуют тому, что система работает плохо», — заявил Питер Белл, профессор речевых технологий в Эдинбургском университете, сообщает Daily Mail.
Технические специалисты BBC предположили, что слово «секс» могло быть отсылкой к «шестому» марта, когда произошло событие — как в игре «телефон» между человеком и роботом.
В любом случае, Литтлджон увидел юмор в кибернетической оговорке. «Сначала я была шокирована — поражена — но потом я подумала, что это так смешно», — сказала она.
Хотя идея ругающегося ИИ-переводчика может показаться достойной смеха, Белл считает, что инцидент выявил серьезные неполадки в этой технологии.
«Более важный вопрос — почему он выводит такой контент», — сказал лингвистический эксперт. «Если вы создаете систему преобразования речи в текст, которая используется общественностью, вы могли бы подумать, что у вас есть средства защиты от такого рода вещей».
В прошлом месяце аналогичная путаница произошла с Apple, которая возмутила сторонников MAGA, когда ее программное обеспечение для преобразования голоса в текст ошибочно истолковало слово «расист» как «Трамп».
Представители компании заявили, что функция будет время от времени ненадолго отображать слова, фонетически совпадающие (в данном случае — твердую букву «Р»), а затем автоматически корректироваться.






