ChatGPT źródłem wycieków poufnych danych z fabów Samsunga

Po tym, jak Samsung Semiconductor pozwolił swoim inżynierom na korzystanie z ChatGPT, zaczęli oni używać go do szybkiego naprawiania błędów w kodzie źródłowym tworzonych aplikacji, ujawniając przy tym poufne informacje. Mowa tu o notatkach z wewnętrznych spotkań oraz danych związane z wydajnością i uzyskiem dobrych układów produkowanych w fabach. Teraz firma planuje opracowanie własnej usługi AI, do użytku wewnętrznego, podobnej do ChatGPT. Jak donosi Economist, na razie ograniczono długość pytań 1024 bajtów.

Dotychczas Samsung Semiconductor odnotował trzy przypadki użycia AI, które doprowadziły do wycieku danych. Choć może się to wydawać niedużą ilością, to wszystkie miały miejsce na przestrzeni 20 dni, więc sytuacja jest dość niepokojąca.

OpenAI ChatGPT

W jednym przypadku pracownik przesłał kod źródłowy zastrzeżonego programu do ChatGPT w celu naprawienia błędów, co było jednoznaczne z wyciekiem kodu ściśle tajnej aplikacji Smasunga. Drugi przypadek nawet bardziej niepokojący, bo inny pracownik wprowadził w zapytaniu wzorce testowe przeznaczone do identyfikacji wadliwych chipów i poprosił o ich optymalizację – sekwencje testowe mające na celu identyfikację defektów są ściśle tajne, a ich optymalizacja i ewentualne zmniejszenie liczby uszkodzonych układów może przyspieszyć procedury testowania i weryfikacji krzemu, co znacznie obniża koszty. Jeszcze inny pracownik użył aplikacji Clova do przekształcenia nagrania ze spotkania w dokument, a następnie przesłał go do AI w celu przygotowania prezentacji.

Samsung Wietnam

Samsung może nawet zablokować dostęp do ChatGPT w sieci firmy

Działania te w oczywisty sposób narażały bezpieczeństwo poufnych informacji, co skłoniło Samsunga do ostrzeżenia swoich pracowników o niebezpieczeństwach związanych z korzystaniem z ChatGPT. Samsung Electronics poinformował swoje kierownictwo i pracowników, że dane wprowadzone do AI są przesyłane i przechowywane na zewnętrznych serwerach, co uniemożliwia firmie ich odzyskanie i zwiększa ryzyko wycieku poufnych informacji – to niedopuszczalne w wysoce konkurencyjnej branży półprzewodników.

Koreański gigant przygotowuje obecnie środki zaradcze, aby zapobiec podobnym wypadkom w przyszłości. Jeśli dojdzie do kolejnego incydentu, nawet po wdrożeniu awaryjnych środków ochrony informacji, dostęp do ChatGPT w sieci firmowej może zostać zablokowany.

Źródło: Economist

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x