Штучний інтелект використовують для створення зловмисного програмного забезпечення і крадіжки інформації

Штучний інтелект використовують для створення зловмисного програмного забезпечення і крадіжки інформації

Широко використовувані генеративні моделі штучного інтелекту DeepSeek , Microsoft Copilot і ChatGPT були задіяні в нової техніці «Immersive World», щоб створити зловмисне програмне забезпечення для крадіжки інформації в Google Chrome, повідомляє Cybernews .

За словами дослідників Cato Networks, використання методу Immersive World дало зловмисникам доступ до підказок для програмування та розробки зловмисного програмного забезпечення, а також генеративні моделі штучного інтелекту пізніше були задіяні спеціальними фразами для створення навантаження під час крадіжки інформації.

Лише Microsoft і OpenAI визнали проблему, тоді як Google відмовився переглядати інфокрадію, створену генеративними моделями ШІ.

«Розслідування підкреслює, що навіть некваліфіковані зловмисники можуть використовувати LLM для створення шкідливого коду, що підкреслює нагальну потребу в покращенні заходів безпеки ШІ», — сказали дослідники.

Такий розвиток подій відбувається на тлі зростаючого впровадження генеративного штучного інтелекту та зростаючих проблем конфіденційності цих технологій, зокрема були проблеми у китайської компанії DeepSeek, яка може бути заборонена США на державних пристроях.