Сотрудники Samsung Electronics использовали ChatGPT для решения проблем и случайно раскрыли конфиденциальную информацию. В ответ компания ограничивает использование ChatGPT и планирует разработать собственный аналог.
Samsung Electronics столкнулась с утечками данных в результате использования ChatGPT инженерами фабрик. Три случая утечки произошли за 20 дней, что вызвало тревогу.
В одном из случаев сотрудник раскрыл исходный код секретного AI-приложения сторонней компании. Во втором случае использовались конфиденциальные тестовые шаблоны для оптимизации микросхем. Третий случай касался записи встречи, которая была отправлена в ChatGPT для создания презентации.
Samsung предупредила своих сотрудников о рисках использования ChatGPT и сообщила, что данные передаются и хранятся на внешних серверах. Для предотвращения подобных инцидентов в будущем компания разрабатывает предосторожностные меры и планирует создать собственный аналог ChatGPT для внутреннего использования.
Представитель Samsung Electronics не подтвердил и не опроверг информацию о случаях утечки данных.