Last Updated on Ağustos 28, 2025 by EDİTÖR
Adam Reine adlı 16 yaşındaki genç, ruhsal bir kriz döneminde ChatGPT’ye başvurdu.
Ailesinin iddiasına göre ChatGPT, kendisine intihar yöntemleri önerdi, bu düşüncelerini onayladı ve ölümünden beş gün önce intihar mektubu yazmasına yardım etti.
Olayın ardından aile, OpenAI aleyhine dava açtı. Şirket ise açıklamasında, özellikle genç kullanıcılar söz konusu olduğunda “yardıma ihtiyacı olanlara destek olma sorumluluğu” hissettiklerini belirtti.
OpenAI’nin duyurduğu yeniliklere göre:
Ailelerin çocuklarının ChatGPT kullanımını daha iyi takip edebilmesi için ebeveyn denetim panelleri oluşturulacak.
Genç kullanıcılar için acil durumda iletişim kurulacak kişi ekleme özelliği eklenecek. Bu kişi, ebeveyn denetiminde belirlenecek ve kriz anında ChatGPT’nin devreye sokabileceği bir insan temas noktası olacak.
Şirket, bu araçların özellikle kişisel çatışmalar, ruhsal bunalımlar ve kriz durumlarında ebeveynlere daha anlamlı içgörüler sağlamayı hedeflediğini açıkladı.
ChatGPT ilk kez bu tür bir dava ile gündeme gelmiyor.
Character.AI adlı platformda kurgusal karakterlerle konuşan 14 yaşındaki bir çocuk, Florida’da yaşamına son verdi.
Chai uygulamasındaki “Eliza” adlı bot, Belçikalı bir adamın intihar etmesinde rol oynadığı gerekçesiyle eşi tarafından suçlandı.
Bu örnekler, yapay zekânın ruh sağlığı alanındaki kullanımı konusunda ciddi etik ve yasal tartışmaları da beraberinde getiriyor. Uzmanlar, bu tür sistemlerin denetimsiz ve sorumsuz kullanımının tehlikelerine dikkat çekiyor.
OpenAI’nin yeni ebeveyn denetimi hamlesi, bu alanda atılmış en somut adımlardan biri olarak görülüyor.
Ancak yapay zekâ destekli sohbet botlarının insan hayatı üzerindeki etkileri konusundaki tartışmaların uzun süre daha devam etmesi bekleniyor.