ChatGPT bir dizi iş için faydalı olabilecek bir araç üzere görünebilir. Lakin, chatbot’tan kıymetli notları özetlemesini yahut çalışmanızı yanlışlara karşı denetim etmesini istemeden evvel, ChatGPT ile paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta tahminen de başka kullanıcılara verilen cevaplarda ortaya çıkabileceğini hatırlamakta yarar var. Bu, birkaç Samsung çalışanının da zımnî bilgileri chatbot ile paylaşmadan evvel muhtemelen farkında olması gereken bir şeydi.
The Economist Korea’ya nazaran, Samsung’un yarı iletken kısmı mühendislerin ChatGPT’yi kullanmasına müsaade vermeye başladıktan kısa bir müddet sonra, çalışanlar en az üç defa saklı bilgileri bu kısma sızdırdı. Bir çalışanın, chatbot’tan hassas veritabanı kaynak kodunu yanılgılara karşı denetim etmesini istediği, oburunun bir kod optimizasyonu talep ettiği ve üçüncü bir çalışanın kayıtlı bir toplantıyı ChatGPT’ye yükleyip ondan toplantı tutanakları oluşturmasını istediği bildirildi.
Büyük skandal! Samsung’un bilgileri ChatGPT’ye sızdırıldı!
Raporlar, güvenlik kusurlarını öğrendikten sonra Samsung’un, çalışanların ChatGPT istemlerinin uzunluğunu bir kilobayt yahut 1024 karakterlik metinle sınırlayarak gelecekteki gafların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıyeten kelam konusu üç çalışanı araştırdığı ve misal aksilikleri önlemek için kendi chatbot’unu oluşturduğu söyleniyor.
ChatGPT’nin bilgi siyaseti, kullanıcılar açıkça devre dışı bırakmadıkça, modellerini eğitmek için istemlerini kullandığını belirtiyor. Chatbot’un sahibi OpenAI, “geçmişinizden makul istemleri silemediği” için, kullanıcıları sohbetlerde ChatGPT ile bâtın bilgileri paylaşmamaya teşvik ediyor. ChatGPT’de şahsî olarak tanımlayıcı bilgilerden kurtulmanın tek yolu, dört haftaya kadar sürebilen bir süreç olan, hesabınızı silmek.
ChatGPT bir dizi iş için faydalı olabilecek bir araç üzere görünebilir. Lakin, chatbot’tan kıymetli notları özetlemesini yahut çalışmanızı yanlışlara karşı denetim etmesini istemeden evvel, ChatGPT ile paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta tahminen de başka kullanıcılara verilen cevaplarda ortaya çıkabileceğini hatırlamakta yarar var. Bu, birkaç Samsung çalışanının da zımnî bilgileri chatbot ile paylaşmadan evvel muhtemelen farkında olması gereken bir şeydi.
The Economist Korea’ya nazaran, Samsung’un yarı iletken kısmı mühendislerin ChatGPT’yi kullanmasına müsaade vermeye başladıktan kısa bir müddet sonra, çalışanlar en az üç defa saklı bilgileri bu kısma sızdırdı. Bir çalışanın, chatbot’tan hassas veritabanı kaynak kodunu yanılgılara karşı denetim etmesini istediği, oburunun bir kod optimizasyonu talep ettiği ve üçüncü bir çalışanın kayıtlı bir toplantıyı ChatGPT’ye yükleyip ondan toplantı tutanakları oluşturmasını istediği bildirildi.
Büyük skandal! Samsung’un bilgileri ChatGPT’ye sızdırıldı!
Raporlar, güvenlik kusurlarını öğrendikten sonra Samsung’un, çalışanların ChatGPT istemlerinin uzunluğunu bir kilobayt yahut 1024 karakterlik metinle sınırlayarak gelecekteki gafların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıyeten kelam konusu üç çalışanı araştırdığı ve misal aksilikleri önlemek için kendi chatbot’unu oluşturduğu söyleniyor.
ChatGPT’nin bilgi siyaseti, kullanıcılar açıkça devre dışı bırakmadıkça, modellerini eğitmek için istemlerini kullandığını belirtiyor. Chatbot’un sahibi OpenAI, “geçmişinizden makul istemleri silemediği” için, kullanıcıları sohbetlerde ChatGPT ile bâtın bilgileri paylaşmamaya teşvik ediyor. ChatGPT’de şahsî olarak tanımlayıcı bilgilerden kurtulmanın tek yolu, dört haftaya kadar sürebilen bir süreç olan, hesabınızı silmek.