Нова функція дозволяє слухати статті в зручному форматі завдяки технології від Respeecher. Насолоджуйтесь контентом у будь-який час – у дорозі, під час тренувань або відпочинку.
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения
Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Завершить
Слухайте з будь-якого місця
Просто виділіть частину тексту, щоб почати прослуховування з відповідного абзацу. Спробуйте — це зручно!
Исследователи из нескольких американских университетов выяснили: модель искусственного интеллекта Llama 3.1 от Meta запомнила значительную часть книги Гарри Поттер и философский камень — настолько хорошо, что способна воспроизводить ее дословно.
Что произошло
Новые исследования показывают, что модель искусственного интеллекта Llama 3.1 от Meta способна запоминать защищенные авторским правом книги почти дословно. Модель может воспроизвести дословно отрывки из 42% книги «Гарри Поттер и философский камень», а в целом фрагменты из 91% текста.
Llama учился, в частности, на пиратской книжной базе Books3 – коллекции пиратских книг, которая использовалась для обучения языковым моделям. Эта база является предметом судебного иска Kadrey v. Meta Platforms, представленного рядом авторов, в частности Ричардом Кадри, чьи произведения без разрешения оказались в тренировочных данных Meta.
Примечательно, что модель почти не запомнила книгу самого Кадри – всего 0,13% «Песочного человека Слим». Впрочем, это не спасает Meta от потенциальных юридических проблем, ведь общий уровень запоминания оказался гораздо выше, чем предполагалось ранее.
Почему это интересно
Юридические эксперты обращают внимание: такая избирательность свидетельствует о том, что компании могут контролировать процесс обучения моделей и снижать уровень «запоминания». То есть это не техническая случайность, а следствие решений по источникам данных.
Meta и другие игроки рынка ИИ ссылаются на «добросовестное использование» (fair use) – но чем больше модель воспроизводит текст дословно, тем слабее этот аргумент.
“Это меняет правила игры”, – говорит профессор права Роберт Браунейс из Университета Джорджа Вашингтона. Если такие доказательства будут приняты в суде, они могут оказать серьезное влияние на дальнейшую юридическую практику вокруг обучения ИИ.
Meta пока не прокомментировала результаты исследования.
Напомним, Meta не впервые оказывается в скандале из-за своей модели ИИ. В апреле 2025-го компания обманула тесты ШИ, которые проводила для своих новых моделей ШИ Llama 4. Оказалось, что модель Maveric, которая, по результатам теста LMArena, стояла выше GPT-4o и чуть ниже Gemini 2.5 Pro отличается от той версии, к которой имеют доступ пользователи.