Güncel

ChatGPT kullanıcılarının psikolojik risk verilerini açıkladı!

OpenAI, yapay zekâ sohbet robotu ChatGPT kullanıcılarının ruh sağlığına ilişkin risk verilerini paylaştı. Şirket, "psikoz veya mani gibi ruh sağlığı sorunları", “duygusal bağımlılık” ve “kendine zarar verme ve intihar” içerikli konuşmaların tespiti için yeni sistemler geliştirdiğini, yanıtların daha güvenli hale getirilmesi amacıyla uzmanlardan oluşan bir komite kurduğunu duyurdu. Veriler haftada yaklaşık 560 bin kullanıcının riskli sayılabilecek konularda sohbette bulunduğunu ortaya koydu.

OpenAI’nin “ChatGPT’nin hassas konuşmalardaki yanıtlarını güçlendirmek” başlıklı yeni raporuna göre, kullanıcıların %0,07’sinin ve mesajların %0,01’inin psikoz veya mani gibi olası ruh sağlığı acil durumlarının belirtilerini gösterdiği tahmin ediliyor.

Haftalık kullanıcı sayısının 700-800 milyon kişi civarında olduğu belirtilen ChatGPT'nin belirtmiş olduğu oranın, toplamda haftalık yaklaşık 560 bin kullanıcıya karşılık geldiği düşünülüyor.

Şirket, bu verilerin “kullanıcı güvenliğini artırma” ve ruhsal krizlerde yapay zekânın yanıt biçimini yeniden tasarlama amacıyla toplandığını belirtti. OpenAI ayrıca, 60 ülkede görev yapan 300’e yakın doktor ve psikologdan oluşan “Küresel Hekim Ağı” kurduğunu, bu ağın son aylarda 170’ten fazla klinisyenle yürütülen çalışmalara doğrudan katkı sunduğunu aktardı.

YAPAY ZEKAYLA DUYGUSAL BAĞIMLILIK

Raporda odaklanılan başlıklardan biri yapay zekâya duygusal bağımlılık gösteren kullanıcı etkileşimleri.

OpenAI’nin verilerine göre, yeni güncellemelerin ardından “istenmeyen duygusal güven yanıtlarının” oranı %80 azaldı.

Şirket, belirli bir haftada aktif kullanıcıların %0,15’inin ChatGPT’ye yüksek düzeyde duygusal bağlılık işaretleri gösterdiğini tespit etti.

Uzmanlar, duygusal bağımlılığı yansıtan zorlu konuşmalarda yeni GPT-5 modelinin istenmeyen yanıtları önceki sürümlere kıyasla %42 oranında azalttığını, 1.000’den fazla örnek üzerinden yapılan değerlendirmelerde ise modelin istenen davranışla %97 uyumlu sonuçlar verdiğini bildirdi.

İNTİHAR VAKALARI VE ŞİRKETİN SORUMLULUĞU

OpenAl verilerine göre, kullanıcıların yüzde 0,15’inin konuşmalarında “intihar planı ya da niyetine dair açık işaretler” bulunuyor.

ChatGPT’nin intihar veya kendine zarar verme konularında verdiği yanıtlar daha önce de tartışma konusu olmuştu. ABD'de 16 yaşındaki bir çocuğun intiharı sonrasında ailesi tarafından OpenAI aleyhine dava açılmış ve soruşturma başlatılmıştı.

Şirket, bu tür vakaların ardından “kriz anlarında kullanıcıları profesyonel desteğe yönlendirme” mekanizmalarını güçlendirdiğini, modellerin artık tehlike durumlarında kullanıcıyı güvenli kaynaklara yönlendirmesi için yeniden eğitildiğini açıkladı.

YAPAY ZEKÂNIN SINIRLARI TARTIŞILIYOR

OpenAI’nin yayımladığı veriler, yapay zekânın günlük yaşamın bir parçası haline gelmesiyle birlikte psikolojik etkilerinin de giderek daha fazla tartışıldığını gösteriyor.

Uzmanlara göre, bu tür veriler hem etik sınırların hem de teknolojik sorumlulukların yeniden tanımlanması gerektiğine işaret ediyor.