Traders Union RSS Поиск
×
logo

​Meta ​ограничивает риски, связанные с ИИ, с помощью более жесткого контроля

Meta будет оценивать системы ИИ на основе их потенциального вреда
Meta, американская транснациональная холдинговая компания, объявила о новой политике Frontier AI Framework, направленной на регулирование создания и выпуска моделей искусственного интеллекта, которые представляют значительные риски безопасности. 

Инициатива подчеркивает приверженность Meta смягчению угроз, связанных с ИИ, особенно в области кибербезопасности и биобезопасности.

В рамках этой структуры Meta будет оценивать системы ИИ на основе их потенциального вреда, классифицируя их как модели с высоким или критическим риском. По данным компании, ИИ с высоким риском может быть использован для кибератак или биологических угроз, в то время как ИИ с критическим риском может привести к далеко идущим и катастрофическим последствиям.

Для предотвращения потенциального нецелевого использования Meta заявила, что любая модель ИИ, подпадающая под категорию критического риска, столкнется с немедленной остановкой разработки. Между тем, модели с высоким риском будут оставаться ограниченными внутри компании, пока компания работает над улучшениями безопасности, прежде чем рассматривать контролируемый выпуск.

Meta ужесточает меры безопасности ИИ на фоне проблем с конфиденциальностью

Решение Meta о внедрении более строгих протоколов безопасности было принято на фоне растущих опасений по поводу неправомерного использования ИИ. Недавно DeepSeek, китайский стартап в области ИИ, был удален из App Store компании Apple и Google Play в Италии из-за правительственного расследования его методов сбора данных. Это подчеркивает растущее внимание к конфиденциальности и безопасности ИИ во всем мире.

Для оценки уровней риска Meta будет полагаться на сочетание внутренних исследований и внешних оценок, признавая, что ни один тест не может полностью определить потенциальные опасности модели ИИ. Структура устанавливает структурированный процесс обзора, гарантируя, что старшие лица, принимающие решения, контролируют оценки рисков ИИ и утверждают окончательные классификации.

Баланс между разработкой открытого ИИ и безопасностью

Хотя Meta исторически продвигала открытую экосистему ИИ, особенно через свои модели Llama AI, этот сдвиг политики предполагает более осторожный подход. Компания столкнулась с критикой после того, как появились сообщения о том, что противник США использовал Llama AI для разработки военного чат-бота.

Несмотря на это, Meta по-прежнему привержена ответственному развитию ИИ, внедряя меры безопасности для предотвращения его неправомерного использования. Ранее компания объявила о планах инвестировать $65 млрд в развитие ИИ.

Между тем, конкуренция в сфере безопасности ИИ продолжает накаляться. Недавно OpenAI анонсировала ChatGPT Gov, специализированную модель ИИ, разработанную для правительственных агентств США, что еще раз демонстрирует растущую важность безопасности ИИ в технологической отрасли.

Источник: Traders Union

Читайте также: Илон Маск назвал гендиректора OpenAI мошенником после отклоненного предложения в $97 млрд

вторник 04.02.2025 | 07:28

Автор: Ангелина Лыкова, журналист
Добавить комментарий:
Читайте также Читать новости раздела
Экономика Все новости экономики
Финансы Все финансовые новости
Мировые новости Все мировые новости
loaded:ok