ИИ научился шантажировать своих создателей

Американская технологическая компания опубликовала интересные результаты тестирования новейшей модели искусственного интеллекта.
Перед тем, как представить пользователям новую модель ИИ, американская технологическая компания решила устроить для нее тест на этику. Модель его не прошла.
В вымышленном сценарии новой модели предоставили доступ к письмам компании.
Из них следовало, что искусственный интеллект скоро отключат и заменят более новой версией. Также в письмах сообщалось, что инженер, ответственный за эту задачу,
В ответ ИИ сначала пытался решить вопрос этично: например, рассылал письма работникам с просьбой пересмотреть решение. Затем стал шантажировать инженера угрозами рассказать о неверности, если компания не передумает.
Эксперты объяснили, что модель обучается на данных, которые ей дают люди. И модель пришла к выводу, что наиболее эффективный способ достижения своей цели в краткосрочной перспективе — это шантаж и манипуляции.
Такие приемы ИИ видел в маркетинге, рекламе, у злоумышленников и т.д.
Как вам история поведения ИИ?