OpenAI, yapay zekâ destekli sohbet uygulaması ChatGPT için yeni kuralları yürürlüğe koydu. 29 Ekim itibarıyla geçerli olan düzenlemeler, ChatGPT’nin artık tıbbi, hukuki ve finansal konularda doğrudan tavsiye veremeyeceğini ortaya koyuyor. Model, bundan sonra “danışman” değil, “eğitim aracı” olarak tanımlanacak ve kullanıcıları gerekli durumlarda doktor, avukat veya mali müşavir gibi uzmanlara yönlendirecek.
'YANLIŞ YÖNLENDİRME RİSKİNİN' AZALMASI BEKLENİYOR
Yeni kurallar, özellikle sağlık, hukuk ve finans alanında kırmızı çizgiler çiziyor. Artık model, ilaç isimleri veya dozaj veremeyecek, dava dilekçesi hazırlayamayacak ve yatırım tavsiyesi sunamayacak. Uzmanlar, bu değişikliğin yanlış yönlendirme riskini azaltacağını ve kullanıcıların gelir, kimlik veya banka bilgilerini paylaşmasının veri güvenliği açısından tehlikeli olduğunu belirtiyor.
EMPATİ KURAMAYACAĞI İÇİN MEN EDİLDİ
Kullanıcı “göğsümde şişlik var” gibi bir belirti girdiğinde, model kanser ihtimalini öne sürebiliyor; ancak bu durum zararsız bir lipom çıkarsa kullanıcı yanıltılmış olabiliyor. Bu nedenle ChatGPT artık empati kuramayacağı ve bireysel riskleri analiz edemeyeceği gerekçesiyle bu tür tavsiyelerden men edildi.
Aynı şekilde, model psikolojik destek veya terapi amaçlı da kullanılamayacak. Etik sınırlar, eğitim ve sanat üretiminde hile amaçlı kullanımı da kapsıyor.




