Служба безопасности Великобритании предупредила о рисках, связанных с ИИ

Национальный центр кибербезопасности Великобритании (NCSC) обрисовал риски интеграции моделей большого языка (LLM) на базе искусственного интеллекта для бизнеса, предупредив, что разработчики еще не полностью осознали слабые места и уязвимости систем.

Как пишут зарубежные СМИ, в своем блоге агентство безопасности признало, что LLM привлекают глобальный интерес и любопытство с момента выпуска OpenAI ChatGPT в 2022 году, что привело к тому, что организации во всех секторах начали исследовать использование этой технологии в своих услугах.

Однако эксперты NCSC обнаружили, что, поскольку эта область быстро развивается, модели постоянно обновляются на нестабильном рынке. Это может означать, что стартап, предлагающий услугу сегодня, может не существовать через два года.

Поэтому организациям, создающим услуги с использованием LLM, необходимо учитывать, что модели фактов могут измениться в зависимости от используемого API, что в какой-то момент приведет к тому, что ключевая часть интеграции перестанет существовать.

Агентство также отметило, что LLM могут нести определенные риски, когда они включены в бизнес-процессы организации: оно отметило, что исследователи обнаружили, что LLM “по своей сути не могут отличить инструкцию от данных, предоставленных для помощи в выполнении инструкции”.

В качестве примера NCSC заявила, что чат-бот на базе искусственного интеллекта, используемый банком, может быть обманут злоумышленником или совершить несанкционированные транзакции, если введенные подсказки структурированы правильно.

Организации, создающие услуги, использующие LLM, должны быть осторожны, точно так же, как если бы они использовали продукт или библиотеку кода, находящуюся в бета-версии”, — добавил NCSC.

Leave a Reply