- Регистрация
- 26.10.16
- Сообщения
- 2,233
- Онлайн
- 38д 2ч 13м
- Сделки
- 251
- Нарушения
- 0 / 0
Согласно недавнему исследованию, по мере того, как генеративные языковые модели становятся более доступными, их легче масштабировать и писать более достоверным и убедительным текстом, чтобы сделать их эффективным инструментом для операций влияния в будущем.
Исследователи пишут, что автоматизация пропаганды представляет собой новое конкурентное преимущество, которое позволит дорогим тактикам стать более дешевыми и менее заметными, поскольку каждое поколение текста уникально. Один из примеров такого использования языковых моделей – массовая рассылка сообщений в соцсетях и написание длинных новостных статей в Интернете.
Главная мысль экспертов заключается в том, что языковые модели будут полезны для пропагандистов и, вероятно, изменят операции влияния в Интернете. Даже если самые передовые модели хранятся в секрете или контролируются через доступ к API-интерфейсу, пропагандисты, скорее всего, перейдут на альтернативы с открытым исходным кодом, а государства могут сами инвестировать в технологию.
Учёные привели в пример исследователя, который натренировал языковую модель на наборе из 3,3 млн. тредов 4chan и использовал ее для генерации 30 000 постов на 4chan, большая часть которых была наполнена оскорбительными высказываниями и выражением ненависти. Способность одного человека создать такую масштабную онлайн-кампанию с использованием генеративного ИИ раскрывает потенциал для людей, которые могут легко проводить операции влияния без надежных ресурсов.
В документе также говорится, что модели можно обучать с использованием целевых данных, в том числе модифицировать модели, чтобы они были более полезными для задач убеждения и поддерживали конкретную миссию. Также специалисты отметили, что пропагандисты могут даже использовать своих собственных чат-ботов.
Для смягчения угрозы такого использования нейросетей исследователи предлагают на этапе разработки создавать «более чувствительные к фактам модели с более поддающимися обнаружению результатами». Они также предлагают правительствам ввести ограничения на сбор обучающих данных и создать контроль доступа к оборудованию ИИ, такому как полупроводники. Эксперты также предлагают регулярно исправлять уязвимости безопасности и ограничить доступ к будущим моделям.
В отношении контента исследователи предлагают, чтобы платформы координировали свои действия с поставщиками ИИ для выявления контента, сгенерированного нейросетями, и требовали, чтобы весь материал был написан человеком. Кроме того, специалисты призывают учреждения участвовать в кампаниях по повышению медиаграмотности и предоставлять инструменты ИИ, ориентированные на потребителя.
Хотя на данный момент не было зарегистрировано ни одного случая использования большой языковой модели для распространения дезинформации, наличие в открытом доступе таких моделей, как ChatGPT, привело к тому, что ряд людей использовали его, например, для сдачи экзаменов и прохождения собеседования в Google.
Ранее мы писали о том, что Британская фирма Eleven Labs, занимающаяся искусственным интеллектом, ужесточила условия использования своей нейросети Prime Voice AI после того, как она использовалась для произношения расистских и гомофобных высказываний голосами знаменитостей.