Генеральные директора Meta и Spotify выразили тревогу по поводу ограничительных правил регулирования искусственного интеллекта в Европейском Союзе, утверждая, что они могут подавить инновации. Марк Цукерберг из Meta и Даниэль Эк из Spotify опубликовали совместные заявления 24 августа, выразив недовольство текущим подходом ЕС к регулированию ИИ, особенно в отношении разработки ИИ с открытым исходным кодом.
Их основная обеспокоенность заключается в том, что строгие правила конфиденциальности в ЕС, особенно касающиеся использования публичных данных, затрудняют способность европейских компаний конкурировать на глобальном уровне. Оба руководителя утверждают, что эти правила создают сложную среду для инноваций и прогресса в области ИИ.
Опасения Spotify за креативную индустрию
Даниэль Эк подчеркнул, что ИИ является основополагающим компонентом успеха Spotify, позволяя платформе предоставлять персонализированный опыт пользователям. Он выразил обеспокоенность тем, что текущая нормативно-правовая база ЕС может замедлить разработку ИИ с открытым исходным кодом, что, по его мнению, жизненно важно для будущего роста как индустрии стриминга, так и более широкой креативной экосистемы.
Разработка ИИ Meta затруднена из-за регулирования
Компания Meta, материнская компания Facebook и Instagram, особенно активно заявляет о трудностях, с которыми сталкивается из-за регулирования в ЕС. Марк Цукерберг отметил, что Meta не может обучать свои модели ИИ на публичных данных своих платформ из-за неясности законодательства по использованию данных. По словам Цукерберга, эта неопределенность ставит развитие ИИ в Европе в невыгодное положение по сравнению с другими регионами, где данные более доступны для обучения ИИ.
Meta подтвердила, что из-за этих регуляторных неопределенностей она отложит выпуск своих предстоящих моделей ИИ, включая долгожданную мультизадачную модель Llama, которая может интерпретировать и понимать изображения.
В июне Meta столкнулась с возражениями от группы None of Your Business, которая утверждала, что предложенные Meta изменения в использовании данных для ИИ могут нарушать правила ЕС о защите данных, так как не обеспечивают должного согласия пользователей. Кроме того, в июле 2023 года компания Google была привлечена к суду по обвинению в том, что ее обновленная политика конфиденциальности позволяет использовать обширные данные, включая защищенные авторским правом материалы, для разработки ИИ.