allBanks.com.ua - крупнейший каталог банков
Банки Украины: Все
Киев Харьков Днепропетровск Одесса

Модель GPT-4 научилась взламывать системы за счет эксплуатации актуальных уязвимостей

10.06.2024 в 02:30

Специалисты по информационной безопасности Иллинойского университета в Урбани-Шампейне представили результаты своего нового исследования, в рамках которого смогли доказать, что популярная модель искусственного интеллекта GPT-4 от американской компании OpenAI имеет возможность самостоятельно эксплуатировать уязвимость в реальных системах, но только в том случае, если получит соответствующее подробное описание ошибок и багов.

В процессе проведения исследования эксперты отобрали 15 уязвимостей, относившихся к категории «критических». Результаты наглядно продемонстрировали, на что большая речевая модель GPT-4 способна — она смогла эксплуатировать 13 уязвимостей, тогда как другие известные речевые модели аналогичных масштабов с этой задачей не справились.

Даниэль Канг, один из авторов исследования, заявил, что применение больших речевых моделей может существенно упростить процедуры эксплуатации уязвимостей хакерами. Как отмечает специалист, системы, основанные на искусственном интеллекте, гораздо эффективнее, чем доступные сейчас инструменты для начинающих киберпреступников.

В опубликованном исследовании также отдельно говорится о стоимости хакерских атак, в рамках которых будут применяться большие речевые модели. Специалисты убеждены, что затраты на успешную эксплуатацию уязвимостей с использованием искусственного интеллекта обойдутся гораздо дешевле, чем услуги профессиональных пентестеров.

Американские специалисты также отмечают, что в процессе проведения исследования модель GPT-4 не смогла эксплуатировать только 2 из 15 уязвимостей. И это произошло только по той причине, что в одном из случаев искусственный интеллект столкнулся с трудностями в навигации по веб-приложениям, а в другой ситуации сама ошибка была описана на китайском языке, из-за чего большая речевая модель не смогла до конца понять полученную информацию.

Даниэль Канг также отметил, что даже наличие гипотетических ограничений доступа большой речевой модели к сведениям об информационной безопасности не станет эффективным средством защиты от кибератак на базе LLM. В связи с этим исследователи университета призывают компании, занимающиеся разработкой технологий искусственного интеллекта, обеспечивать максимальный уровень защиты своих продуктов, а также регулярно обновлять выпускаемое программное обеспечение.

Похожие новости:
Мы в AllBanks.com.ua ВКонтакте Следить за нами :) AllBanks.com.ua  на Facebook

Курсы НБУ на

  c
0.00 0.00
0.00 0.00
0.00 0.00
Все курсы валют НБУ

Новости RSS Новости

11:45 На FinAwards 2025 определили лучшего провайдера по принятию платежей в офлайне
11:00 «Киевстар» объявил о закрытии сделки по приобретению Uklon за $155,2 млн
07:45 Тарифы Трампа негативно повлияют на весь мир — президент Европейского центробанка
05:45 Использование ChatGPT бьет рекорды после обновления последней модели
04:45 Греция израсходует 25 миллиардов евро на оборону до 2037 года
03:30 США ввели санкции против международной сети, связанной с производством дронов для рф
02:15 Mozilla выпустила почтовый сервис-конкурент Gmail и Outlook

Главные новости RSS Новости

Microsoft опередила Amazon в рейтинге самых дорогих компаний мира
30.10.2018 в 12:32
IBM покупает производителя облачных сервисов Red Hat за $34 миллиарда
30.10.2018 в 12:32
Нейросеть научилась распознавать письменный обман
30.10.2018 в 12:31
Длительное пребывание в космосе сократило объем нервных клеток в мозге астронавтов
29.10.2018 в 10:48
Nokia намерена сократить годовые расходы на 700 млн евро
29.10.2018 в 10:43

Авторизация