Meta выпустила крупнейшую открытую ИИ-модель Llama 3.1 с 405 млрд параметров
Еще в апреле Meta анонсировала работу над уникальным для индустрии ИИ проектом — моделью с открытым исходным кодом, которая могла бы сравниться по эффективности с лучшими закрытыми моделями компаний вроде OpenAI. Вышедшая в свет Llama 3.1 значительно сложнее предыдущих моделей Llama 3 меньшего размера, выпущенных несколько месяцев назад. Самая крупная версия обладает 405 млрд параметров и была обучена на более чем 16 000 графических процессоров H100 от Nvidia. Meta не раскрывает стоимость разработки Llama 3.1, но, исходя из одной только стоимости чипов Nvidia, можно предположить, что она составила сотни миллионов долларов.
Цифровой прорыв: как искусственный интеллект меняет медийную рекламуНесмотря на высокие затраты на разработку, Meta решила сделать код своей модели открытым. В письме, опубликованном в официальном блоге компании, Марк Цукерберг утверждает, что ИИ-модели с открытым исходным кодом со временем превзойдут проприетарные, так же как Linux, ставшая операционной системой с открытым исходным кодом, сегодня управляет большинством телефонов, серверов и гаджетов. Он считает, что выпуск Llama 3.1 станет переломным моментом в отрасли, после которого большинство разработчиков начнут в основном использовать открытый исходный код.
Meta сотрудничает с Microsoft, Amazon, Google и другими компаниями, чтобы помочь разработчикам развертывать собственные версии Llama 3.1.
Meta заявляет, что эксплуатация Llama 3.1 примерно вдвое дешевле, чем GPT-4o от OpenAI. Компания также предоставляет доступ к весам модели, позволяя другим организациям обучать ее на собственных данных и настраивать под конкретные задачи.Сервис Meta AI, основанный на модели Llama, теперь доступен в 22 странах, в том числе в Аргентине, Чили, Колумбии, Эквадоре, Мексике, Перу и Камеруне. Ассистент заговорил на новых языках: помимо английского, теперь он понимает и отвечает на французском, немецком, хинди, итальянском, португальском и испанском.
Новая функция «Imagine Me» в Meta AI сканирует лицо пользователя через камеру телефона, чтобы затем вставить изображение в генерируемые картинки. Такой подход к захвату внешности без использования фотографии позволяет Meta избежать создания дипфейков. Пользователю нужно ввести текстовый запрос, например, «Представь меня сёрфингистом» или «Представь меня на пляже», и сервис выдаст соответствующее изображение. В ближайшее время Meta AI получит инструменты для редактирования изображений, позволяющие изменять объекты с помощью текстовых запросов. Со следующего месяца появится кнопка «Edit with AI» для расширенной настройки. В будущем будут добавлены ярлыки для быстрой публикации изображений, созданных ИИ, в лентах, историях и комментариях приложений Meta.
Сервис Meta AI был запущен в сентябре 2023 года. Он основан на большой языковой модели Llama 2 и позволяет пользователям получать информацию, генерировать текст, переводить на разные языки и выполнять другие задачи с помощью искусственного интеллекта.