АНТИКОР — національний антикорупційний портал
МОВАЯЗЫКLANG
Київ: 8°C
Харків: 8°C
Дніпро: 8°C
Одеса: 8°C
Чернігів: 9°C
Суми: 8°C
Львів: 4°C
Ужгород: 8°C
Луцьк: 4°C
Рівне: 3°C

У Британії стурбовані кіберризиками від чат-ботів зі штучним інтелектом

Читать на русском
У Британії стурбовані кіберризиками від чат-ботів зі штучним інтелектом
У Британії стурбовані кіберризиками від чат-ботів зі штучним інтелектом

Британська влада попереджає про ризики використання чат-ботів, керованих штучним інтелектом, стверджуючи, що їх можна обманом змусити виконувати шкідливі завдання.

Про це заявив Національний центр кібербезпеки Великої Британії (NCSC), повідомляє Reuters.

У двох своїх публікаціях відомство зазначає, що експерти ще не розібралися з потенційними проблемами безпеки, пов’язаними з алгоритмами, які можуть генерувати взаємодію, схожу на людську – так званими великими мовними моделями (LLM).

NCSC зазначає, що використання інструментів на основі штучного інтелекту, зокрема в роботі з обслуговування клієнтів та дзвінками з продажу, може нести ризики, особливо якщо такі моделі будуть підключені до інших елементів бізнес-процесів.

Науковці та дослідники неодноразово знаходили способи маніпулювати чат-ботами, даючи їм несанкціоновані команди або обманюючи їх, щоб вони обходили вбудовані в них захисні механізми.

Наприклад, чат-бот на базі штучного інтелекту, який використовує банк, можна обманом змусити здійснити несанкціоновану транзакцію, якщо хакер правильно структурує свій запит.

Вплив штучного інтелекту на безпеку все ще перебуває в центрі уваги урядів країн по всьому світу. Зокрема, у США та Канаді вже фіксували використання технології LLM хакерами.


Теги: кібербезпекакибербезопасностьискусственный интеллектВеликобританіяВеликобритания

Дата і час 30 серпня 2023 г., 12:41     Переглядів Переглядів: 2053
Коментарі Коментарі: 0


Коментарі:

comments powered by Disqus
loading...
Загрузка...

Наші опитування

Чи вірите ви, що Дональд Трамп зможе зупинити війну між Росією та Україною?







Показати результати опитування
Показати всі опитування на сайті
0.042671