В ЕС разрабатываются новые правила для крупных моделей ИИ
Обмен информацией, соблюдение авторских прав и прозрачность: вот новые обязательства, которые компании, разрабатывающие модели искусственного интеллекта общего назначения (ИИ общего назначения), должны будут соблюдать в Европе с сегодняшнего дня. Спустя год после вступления в силу Закона об искусственном интеллекте , запрета на запрещённые практики в области ИИ и введения обязательного обучения , настала очередь правил для крупных моделей ИИ.
Что такое ГПАИ?Это модели, обученные на больших объёмах данных и способные выполнять широкий спектр задач, часто интегрируемые в другие системы ИИ. В руководстве GPAI Комиссия пояснила, что алгоритм попадает в эту категорию, если он был обучен с использованием вычислительных ресурсов, превышающих 10^23 флопс, и способен генерировать язык (в форме текста или аудио), изображения или видео из текста.
Модель также должна обладать значительной общностью и быть способной эффективно выполнять широкий спектр различных задач. Поэтому в состав GPAI входят языковые модели, обученные на указанной вычислительной мощности, а не те, которые предназначены для игры в шахматы, видеоигр или повышения разрешения фотографий.
Существуют также модели системного риска, для которых Закон об искусственном интеллекте предусматривает дополнительные обязательства. Это алгоритмы, способные оказать существенное влияние на европейский рынок. В данном случае пороговое значение, подлежащее рассмотрению, составляет 10^25 FLOP, и Комиссия имеет право определять их ex officio.
Обязательства по обеспечению прозрачностиПрежде всего, от поставщиков требуется повышение прозрачности. Закон об искусственном интеллекте обязывает их готовить и вести техническую документацию, относящуюся к модели, включая сведения о процессе обучения, которую они затем могут предоставлять властям по запросу.
Компаниям также придется предоставлять информацию и документацию поставщикам нижнего уровня — тем, кто намеревается интегрировать GPAI в систему ИИ, — чтобы помочь им понять возможности и ограничения модели и соблюдать свои юридические обязательства.
В Законе об искусственном интеллекте (AI) перечислен минимальный перечень информации, подлежащей сбору. Кроме того, в Кодексе поведения GPAI опубликован стандартный, простой в использовании шаблон для выполнения этих требований.
Защита авторских правЗакон также обязывает провайдеров проводить эффективную политику соблюдения европейского законодательства об авторском праве, используя передовые технологии для выявления и обеспечения соблюдения прав.
Кодекс поведения также перечисляет ряд практических решений для выполнения этого нового обязательства.
Отчет об обучении моделиКомпании, занимающиеся разработкой ИИ, также обязаны публиковать достаточно подробное описание контента, используемого для обучения алгоритма. Чтобы помочь поставщикам соблюдать требования, Комиссия опубликовала шаблон , который компании могут использовать в качестве справочного материала, а также который позволит гражданам и правообладателям получать информацию и защищать себя.
Правила в случае системного рискаНачиная с сегодняшнего дня, к моделям, подверженным системному риску, также должны быть предъявлены дополнительные требования. Поставщики услуг должны проводить оценку моделей с использованием стандартизированных протоколов и передовых инструментов. Потенциальные системные риски, возникающие в связи с этими моделями, также должны быть оценены и минимизированы, а о серьёзных инцидентах необходимо сообщать властям.
Эти компании также обязаны обеспечить адекватную защиту кибербезопасности как для модели, так и для ее физической инфраструктуры, чтобы предотвратить кражу, неправомерное использование или широкомасштабные последствия в результате неисправностей.
В Кодексе поведения целая глава посвящена моделям ИИ с системным риском, в ней перечислены конкретные методы управления этими рисками.
repubblica