Samsung заборонив співробітникам використовувати ChatGPT після витоку даних

Samsung заборонив співробітникам використовувати ChatGPT після витоку даних
Логотип компанії Samsung Electronics на будівлі її офісу в Сеулі. Фото: REUTERS/Kim Hong-Ji/File Photo

Компанія Samsung Electronics Co забороняє співробітникам використовувати популярні інструменти генерації штучного інтелекту, такі як ChatGPT. Це відбулося після того, як було виявлено, що вони завантажили конфіденційний код на платформу, що стало перешкодою для поширення таких технологій на робочому місці.

Про це повідомляє Bloomberg.

Читайте також:

Заборона на використання ChatGPT

У понеділок, 1 травня, компанія з Сувона, Південна Корея, повідомила співробітників одного зі своїх найбільших підрозділів про нову політику через службову записку. Samsung стурбований тим, що дані, передані на такі платформи штучного інтелекту, як Google Bard і Bing, зберігаються на зовнішніх серверах, що ускладнює їх пошук і видалення, а також може призвести до розголошення іншим користувачам.

Минулого місяця компанія провела опитування щодо використання інструментів штучного інтелекту всередині компанії і повідомила, що 65% респондентів вважають, що такі сервіси становлять загрозу безпеці. Раніше в квітні інженери Samsung випадково виклали внутрішній вихідний код, завантаживши його в ChatGPT. Невідомо, що саме містила ця інформація.

"Інтерес до платформ генеративного ШІ, таких як ChatGPT, зростає як всередині компанії, так і за її межами. Хоча цей інтерес зосереджений на корисності та ефективності цих платформ, також зростає занепокоєння щодо ризиків для безпеки, які представляє генеративний ШІ", — сказали керівники компанії своїм співробітникам.

Правила для співробітників Samsung

Нові правила Samsung забороняють використання генеративних систем штучного інтелекту на комп'ютерах, планшетах і телефонах, що належать компанії, а також у її внутрішніх мережах. Вони не стосуються пристроїв компанії, що продаються споживачам, таких як смартфони Android і ноутбуки Windows.

Samsung попросила співробітників, які використовують ChatGPT та інші інструменти на персональних пристроях, не надавати жодної інформації, пов'язаної з компанією, або персональних даних, які можуть розкрити її інтелектуальну власність. Компанія попередила, що порушення нових правил може призвести до звільнення.

Тим часом компанія створює власні внутрішні інструменти штучного інтелекту для перекладу та узагальнення документів, а також для розробки програмного забезпечення. 

Нагадаємо, Європарламент готує жорсткі вимоги щодо використання штучного інтелекту (ШІ). Серед них — оприлюднення інформації про те, чи використовують творці чат-ботів матеріали, що захищені авторським правом.