allBanks.com.ua - крупнейший каталог банков
Банки Украины: Все
Киев Харьков Днепропетровск Одесса

Модель GPT-4 научилась взламывать системы за счет эксплуатации актуальных уязвимостей

10.06.2024 в 02:30

Специалисты по информационной безопасности Иллинойского университета в Урбани-Шампейне представили результаты своего нового исследования, в рамках которого смогли доказать, что популярная модель искусственного интеллекта GPT-4 от американской компании OpenAI имеет возможность самостоятельно эксплуатировать уязвимость в реальных системах, но только в том случае, если получит соответствующее подробное описание ошибок и багов.

В процессе проведения исследования эксперты отобрали 15 уязвимостей, относившихся к категории «критических». Результаты наглядно продемонстрировали, на что большая речевая модель GPT-4 способна — она смогла эксплуатировать 13 уязвимостей, тогда как другие известные речевые модели аналогичных масштабов с этой задачей не справились.

Даниэль Канг, один из авторов исследования, заявил, что применение больших речевых моделей может существенно упростить процедуры эксплуатации уязвимостей хакерами. Как отмечает специалист, системы, основанные на искусственном интеллекте, гораздо эффективнее, чем доступные сейчас инструменты для начинающих киберпреступников.

В опубликованном исследовании также отдельно говорится о стоимости хакерских атак, в рамках которых будут применяться большие речевые модели. Специалисты убеждены, что затраты на успешную эксплуатацию уязвимостей с использованием искусственного интеллекта обойдутся гораздо дешевле, чем услуги профессиональных пентестеров.

Американские специалисты также отмечают, что в процессе проведения исследования модель GPT-4 не смогла эксплуатировать только 2 из 15 уязвимостей. И это произошло только по той причине, что в одном из случаев искусственный интеллект столкнулся с трудностями в навигации по веб-приложениям, а в другой ситуации сама ошибка была описана на китайском языке, из-за чего большая речевая модель не смогла до конца понять полученную информацию.

Даниэль Канг также отметил, что даже наличие гипотетических ограничений доступа большой речевой модели к сведениям об информационной безопасности не станет эффективным средством защиты от кибератак на базе LLM. В связи с этим исследователи университета призывают компании, занимающиеся разработкой технологий искусственного интеллекта, обеспечивать максимальный уровень защиты своих продуктов, а также регулярно обновлять выпускаемое программное обеспечение.

Похожие новости:
Мы в AllBanks.com.ua ВКонтакте Следить за нами :) AllBanks.com.ua  на Facebook

Курсы НБУ на

  c
0.00 0.00
0.00 0.00
0.00 0.00
Все курсы валют НБУ

Новости RSS Новости

12:15 Как с начала войны выросли вклады предприятий и населения
11:45 В Польше назвали главную проблему при трудоустройстве иностранцев
09:15 Что будет с доходностью депозитов — прогноз банкиров
08:15 Как получить кредит в Польше и что для этого нужно
07:30 Фонд гарантирования вернул кредиторам банков-банкротов более 2 млрд грн
05:45 Минцифры объяснило, как аукцион радиочастот улучшит качество мобильной связи и интернета
03:45 В россии будут списывать кредиты тем, кто воюет в Украине

Главные новости RSS Новости

Microsoft опередила Amazon в рейтинге самых дорогих компаний мира
30.10.2018 в 12:32
IBM покупает производителя облачных сервисов Red Hat за $34 миллиарда
30.10.2018 в 12:32
Нейросеть научилась распознавать письменный обман
30.10.2018 в 12:31
Длительное пребывание в космосе сократило объем нервных клеток в мозге астронавтов
29.10.2018 в 10:48
Nokia намерена сократить годовые расходы на 700 млн евро
29.10.2018 в 10:43

Авторизация