Хакери та інші злочинці можуть легко захопити комп'ютери, що працюють з відкритими великими мовними моделями за межами захисту та обмежень основних платформ штучного інтелекту, створюючи ризики безпеки та вразливості, повідомили дослідники у четвер, 29 січня.
Хакери можуть атакувати комп'ютери, на яких працюють великі мовні моделі, і спрямовувати їх на виконання спам-операцій, створення фішингового контенту або дезінформаційних кампаній, обходячи протоколи безпеки платформи, заявили дослідники.
Дослідження, проведене спільно компаніями з кібербезпеки SentinelOne і Censys протягом 293 днів і ексклюзивно надане Reuters, відкриває нове вікно в масштаби потенційно незаконних випадків використання тисяч розгортань відкритих великих мовних моделей. Вони включають хакерство, мову ненависті та переслідування, насильницький або жорстокий контент, крадіжку персональних даних, онлайн шахрайство, а в деяких випадках матеріали сексуального насильства над дітьми, повідомили дослідники.
Хоча існують тисячі варіантів відкритих великих мовних моделей, значна частина великих мовних моделей на доступних через інтернет хостах є варіантами Llama від Meta, Gemma від Google DeepMind та інших, згідно з дослідниками. Хоча деякі моделі з відкритим кодом включають захист, дослідники виявили сотні випадків, коли захист було явно знято.
Розмови в індустрії ШІ про контроль безпеки «ігнорують цей вид надлишкових потужностей, які явно використовуються для всіляких різних речей, деякі з них легітимні, деякі явно злочинні», сказав Хуан Андрес Герреро-Сааде, виконавчий директор з розвідки та досліджень безпеки в SentinelOne. Герреро-Сааде порівняв ситуацію з «айсбергом», який не враховується належним чином в усій індустрії та спільноті відкритого коду.
Дослідження проаналізувало публічно доступні розгортання відкритих великих мовних моделей, розгорнутих через Ollama, інструмент, який дозволяє людям та організаціям запускати власні версії різних великих мовних моделей.
Дослідники змогли побачити системні підказки, які є інструкціями, що диктують поведінку моделі, приблизно в чверті великих мовних моделей, які вони спостерігали. З них вони визначили, що 7,5% потенційно можуть дозволити шкідливу діяльність.
Приблизно 30% хостів, які спостерігали дослідники, працюють з Китаю, і близько 20% зі США.
Рейчел Адамс, генеральний директор і засновник Глобального центру управління ШІ, сказала в електронному листі, що після випуску відкритих моделей відповідальність за те, що відбувається далі, стає спільною для всієї екосистеми, включаючи лабораторії-розробники.
«Лабораторії не несуть відповідальності за кожне подальше зловживання (які важко передбачити), але вони зберігають важливий обов'язок дбати про передбачення передбачуваної шкоди, документування ризиків та надання інструментів і керівництва для пом'якшення наслідків, особливо враховуючи нерівномірні глобальні можливості виконання», сказала Адамс.
Представник Meta відмовився відповісти на запитання про відповідальність розробників за вирішення проблем, пов'язаних із подальшим зловживанням моделями з відкритим кодом, і про те, як можна повідомляти про проблеми, але зазначив інструменти Llama Protection компанії для розробників Llama та Meta Llama Responsible Use Guide компанії.
Керівник команди Microsoft AI Red Team Рам Шанкар Сіва Кумар сказав в електронному листі, що Microsoft вважає, що моделі з відкритим кодом «відіграють важливу роль» у різних сферах, але «водночас ми тверезо розуміємо, що відкриті моделі, як і всі трансформаційні технології, можуть бути зловживані противниками, якщо їх випускають без відповідного захисту».
Microsoft проводить оцінки перед випуском, включаючи процеси для оцінки «ризиків для сценаріїв, що піддаються впливу інтернету, саморозміщених і сценаріїв виклику інструментів, де зловживання може бути високим», сказав він. Компанія також моніторить нові загрози та шаблони зловживань. «Зрештою, відповідальні відкриті інновації вимагають спільних зобов'язань між творцями, розробниками, дослідниками та командами безпеки».
Ollama не відповіла на запит щодо коментаря. Alphabet's Google і Anthropic не відповіли на запитання. – Rappler.com

