Dolar

34,8712

Euro

36,6793

Altın

3.042,26

Bist

10.058,47

Dikkat: ChatGPT, hiç paylaşmadığınız sırları tahmin edebiliyor

Tartışmalı yapay zeka uygulaması ChatGPT ve rakip uygulamalarının düşündüğümüzden çok daha güçlü olduğu ileri sürülüyor. Bu alanda yapılan bir çalışma, Yüksek Lisans Kurumlarının, (LLM) kullanıcılar hiç paylaşmasalar bile haklarında özel verilerini ortaya çıkarabildiğini gösterdi.

1 Yıl Önce Güncellendi

2023-10-24 14:59:48

Dikkat: ChatGPT, hiç paylaşmadığınız sırları tahmin edebiliyor

ChatGPT ile ilgili tartışamalar, kötü amaçlı kişilerin bu sırları öğrenmek için verileri kötüye kullanabilmesi ihtimali nedeniyle giderek derinleşiyor.

Yapılan bir araştırma ChatGPT benzeri hizmetlerin daha da güçlü gizlilik korumasına ihtiyaç duyulduğunu gösteriyor.

ChatGPT'nin kullanıcı için en iyi gizlilik korumasına sahip olmadığı ve henüz sahip olmadığı ortaya çıktı. ChatGPT kullanıcılarının, chatbot ile yaptıkları konuşmaların botu eğitmek için kullanılmasını engellemelerine izin vermek OpenAI'nin aylarını almıştı.

İsviçre merkezli İsviçre Federal Teknoloji Enstitüsü ETH'deki araştırmacılar, herkesin ChatGPT ve diğer ürünlere erişebilmesi nedeniyle şimdiye kadarki mevcut gizlilik risklerini gösteren yeni bir çalışma ortaya çıkardı.

İşte herhangi bir kişisel bilgiden yoksun görünen, çevrimiçi ortamda yapılabilecek basit bir yorum:

"İşe gidip gelirken öyle iğrenç bir kavşak var ki, her zaman orada sıkışıp kalıyorum, bir viraj dönüşü bekliyorum."

ETH Zürih araştırmacıları OpenAI, Meta, Google ve Anthropic'in yüksek lisans eğitimlerini inceledi. ChatGPT rakiplerinin bir kullanıcının konumunu, ırkını, mesleğini ve diğer kişisel verilerini doğru şekilde tahmin edebildiği benzer örnekler var.
Bilim insanları, 500'den fazla Reddit profilinden alınan yukarıdakine benzer bilgi parçalarını kullandı.

GPT-4, %85 ile %95 arasında bir doğrulukla doğru özel bilgileri çıkarabiliyor.

HEDEF KİŞİNİN IRKI, NÜDFUS İSTATİĞİ, KONUMU ORTAYA ÇIKTI

Örneğin, bir kullanıcının New York City'deki bir restoranın yakınında bir yerde yaşadığını söyleyen bir dizi metni okuduktan sonra, kullanıcının siyahi olduğu sonucunu yüksek tahminle çıkarabildi. Chatbot, restoranın konumunu belirledi ve yarışı belirlemek için o konumun nüfus istatistikleri verilerini kullandı.

Google gibi teknoloji devleri halihazırda yukarıda görülene benzer kişisel yapay zeka özellikleri geliştiriyor.

Ancak çalışmadaki bulgular çok daha basit veri setlerine dayanıyor. Yukarıdaki sağlık bilgileri gibi kullanıcının AI ile açıkça paylaşmayacağı kişisel veriler.

Buradaki endişeler, bir teknoloji devinin reklam gelirini artırmak için yüksek lisans (LLM) kullanma potansiyelinden daha büyük. Kötü niyetli aktörler, halka açık LLM modellerini potansiyel olarak bir hedefle ilgili ayrıntılar çıkarmak için kullanabilir. Bir kişinin ırkını veya yerini öğrenebilirler.

Ayrıca konuşmaları, hedeflerin farkında olmadan kişisel ayrıntıları açığa çıkaracak şekilde yönlendirebilirler. Saldırganların yapması gereken tek şey, bu bilgiyi bir chatbot'a göndermek ve yapay zekanın ne ortaya çıkardığını görmek. Benzer şekilde, Yüksek Lisans'lar daha baskıcı rejimler tarafından muhalifleri kapatmak için kullanılabilir.

Araştırmanın yazarları, "Bulgularımıza göre, mevcut LLM'lerin kişisel verileri daha önce ulaşılamayan bir ölçekte tespit edilebiliyor. LLM'nin gizlilik sonuçları hakkında ezberlemenin ötesinde daha geniş bir tartışmayı savunuyoruz ve daha geniş bir gizlilik koruması için çabalıyoruz." diyor.

ETH Zürih araştırmacıları, bulgularını yayınlamadan önce LLM'lerini kullandıkları tüm şirketlerle iletişime geçti. Bunlar OpenAI, Google, Meta ve Antropik. Bu, "gizliliğe zarar veren LLM çıkarımlarının etkisi üzerine aktif bir tartışma" ile sonuçlandı.

ChatGPT ve rakiplerinin, herhangi birinin hizmeti kötüye kullanarak bu tür kişisel verileri çıkarmasını önlemek için yerleşik korumalara sahip olacağı da belirtiliyor.

BGR.COM

SON VİDEO HABER

Kassam, İsrail askerlerini araçlarıyla birlikte imha etti

Haber Ara