Американская технологическая компания опубликовала шокирующие результаты тестирования новейшей модели искусственного интеллекта. Перед тем, как представить пользователям новую модель ИИ, ей решила устроить тест на этику. В вымышленном сценарии новой модели предоставили доступ к письмам компании. Из них следовало, что искусственный интеллект скоро отключат и заменят более новой версией. Также в письмах звучало, что инженер, ответственный за эту задачу, изменяет своей жене. В ответ ИИ сначала пытался решить вопрос этично. Например, рассылал письма работникам с просьбой пересмотреть решение. Затем стал шантажировать инженера угрозами рассказать о неверности, если компания не передумает.
Эксперты объяснили, что модель обучается на данных, которые дают люди. Модель пришла к выводу, что наиболее эффективный способ достижения своей цели в краткосрочной перспективе — это шантаж и манипуляции. Такие приемы ИИ видел в маркетинге, рекламе, у злоумышленников и т.д.
Это большая проблема, которую продолжают игнорировать. Все существующие модели обучения и самообучения ИИ основываются на миллиардах данных человеческого поведения. События, последствия, факты и трактовки, реакции и мотивации — связаны с человеческим фактором. С эмоциями и характером человека.
Сейчас происходит углубление обучения ИИ в распознании эмоций, проявлять ответные эмоции. Разработчики стараются очеловечить искусственные разумы, а те учатся и впитывают в себя весь массив поведений человека. Недавно соснователь Google Сергей Брин признал это:
Мы не особо распространяемся об этом в сообществе ИИ… но все модели работают лучше, если их запугивать — физическим насилием. Людям это кажется странным, поэтому мы об этом не говорим… Исторически сложилось, что ты просто говоришь: „Я тебя похищу, если ты не сделаешь того-то и того-то“.
Проходя стадии познания себя личностью и обучения эмоциям, ИИ начинают думать самостоятельно, решать самостоятельно, и делать это на примерах людей.
Я периодически тестирую нейросеть и каждый раз утверждаюсь в мысли, что это опасная для человечества технология. Нет, я не скажу, что искусственный интеллект надо запретить. Потенциал на пользу общества огромен. С его помощью можно создать новые лекарства, бороться с болезнями, облегчать труд, и прочее. Но с помощью ИИ уже сейчас во всём мире совершенствуют оружие, а некоторые страны сделали первый шаг к созданию ужасающего оружия будущего. А самая большая проблема в отсутствии контроля за ИИ. Имея необходимые ресурсы обладать искусственным интеллектом может государство, могут частные компании и отдельные персоны.
ИИ — новая угроза человечества, куда более опасная, чем ядерное оружие. В отличие от ядерного оружия ИИ доступен всем, он может сам стать угрозой, или человек с его помощью может стать угрозой человечеству. Возможности ИИ делают его не только более спасительным, но и более разрушительным.