OpenAI и Anthropic будут показывать свои ИИ-модели правительству США перед выпуском

Компании подписали меморандумы о взаимопонимании с Американским институтом безопасности искусственного интеллекта при Национальном институте стандартов и технологий (NIST). Институт получит доступ к языковым моделям как до, так и после их публичной презентации. Правительство подчеркнуло, что такой подход позволит совместно оценивать потенциальные риски и разрабатывать меры по обеспечению безопасности.

«Если ИИ — это мозг робота, то RPA — его руки». Что умеют программные роботы

Институт безопасности ИИ совместно с британскими партнерами будет оценивать безопасность моделей OpenAI и Anthropic, а также предложит рекомендации по их улучшению. OpenAI и Anthropic видят в этом сотрудничестве возможность сформировать стандарты ответственной разработки искусственного интеллекта в США.

Несмотря на опасения бывших сотрудников о снижении приоритетности безопасности, руководство OpenAI поддерживает регулирование ИИ. Сэм Альтман, генеральный директор OpenAI, заявил в начале этого месяца, что компания намерена предоставлять свои модели государственным учреждениям для тестирования и оценки безопасности перед выпуском. Anthropic, которая наняла часть команды OpenAI по безопасности, сообщила, что отправила свою модель Claude 3.5 Sonnet в Британский институт безопасности искусственного интеллекта перед ее выпуском.

Институт безопасности ИИ США при NIST был создан по указу администрации Байдена, затрагивающему искусственный интеллект. Этот указ, не являясь законом, может быть отменен следующим президентом. Он предусматривает, что разработчики ИИ должны предоставлять свои модели для проверки безопасности перед их публичным выпуском. Однако указ не может наказать организации за отказ от проверки или отзывать модели, если они не пройдут тесты. В NIST подчеркнули, что участие в проверке остается добровольным, но способствует безопасной и надежной разработке ИИ.

Хотя соглашение между Институтом безопасности ИИ США и двумя ведущими компаниями в области разработки ИИ демонстрирует путь к регулированию моделей, существует обеспокоенность тем, что термин «безопасность» слишком расплывчат, а отсутствие четких правил создает неопределенность в этой сфере.

Тем не менее поделиться доступом к моделям искусственного интеллекта — важный шаг в условиях, когда законодательные органы обсуждают, как регулировать эту технологию, не препятствуя инновациям. В Калифорнии приняли закон о безопасном и надежном развитии передовых моделей искусственного интеллекта (SB 1047), согласно которому компании, занимающиеся разработкой ИИ в Калифорнии, обязаны принимать конкретные меры безопасности перед обучением крупных языковых моделей. Этот закон вызвал неоднозначную реакцию в индустрии: OpenAI и Anthropic выразили опасения, что новые требования могут негативно сказаться на небольших разработчиках с открытым исходным кодом. Тем временем Белый дом работает над тем, чтобы заручиться добровольными обязательствами крупных компаний по мерам безопасности в области ИИ.

 

Хайтек+ Хайтек+

01:07
Использование нашего сайта означает ваше согласие на прием и передачу файлов cookies.

© 2024