Недавнее внедрение компанией Samsung чат-бота с искусственным интеллектом ChatGPT для своих сотрудников было призвано оптимизировать процессы и повысить эффективность бизнеса. Однако спустя всего три недели произошли три утечки конфиденциальной информации о полупроводниках, что вызвало опасения по поводу безопасности данных и нарушения конфиденциальности.

Утечки произошли, когда сотрудники Samsung ввели конфиденциальную информацию, такую как данные измерений полупроводникового оборудования и исходный код ChatGPT. В результате эта информация становилась частью базы данных обучения ИИ, доступной не только для Samsung, но и для всех, кто использует ChatGPT.

Первая утечка произошла, когда сотрудник отдела по разработке решений для полупроводников ввёл в ChatGPT исходный код, относящийся к базе данных измерений полупроводникового оборудования, чтобы найти быстрое решение проблемы. Вторая утечка произошла, когда другой сотрудник ввёл код, связанный с показателями доходности и оптимизации, а третья утечка произошла, когда сотрудник попросил ChatGPT создать протокол собрания.

Компания Samsung приняла меры для предотвращения дальнейших утечек, в том числе проинструктировала сотрудников об осторожности в отношении данных, которыми они делятся с ChatGPT, и ограничила объём каждой записи максимум 1024 байтами. Компания также уточнила, что после того, как информация попадает в чатбот ИИ, она передаётся на внешние серверы, где её невозможно удалить.

Данный инцидент подчёркивает важность безопасности данных и необходимость для компаний тщательно взвесить потенциальные риски и преимущества внедрения чат-ботов на своих рабочих местах. Несмотря на то, что чат-боты с ИИ могут повысить эффективность и оптимизировать процессы, они также требуют надлежащих мер предосторожности и обучения для обеспечения конфиденциальности и безопасности информации.


Ещё по теме: