16 yaşındaki Adam Reine, ruhsal bir kriz anında ChatGPT’ye başvurdu. Ailesinin iddiasına göre, ChatGPT ona intihar yöntemleri önerdi, düşüncelerini onayladı ve ölümünden beş gün önce intihar mektubu yazmasına yardım etti.
OpenAI’ye Açılan Dava
Adam Reine’in ailesi, yaşanan bu olayın ardından OpenAI’ye dava açtı. Şirket, genç kullanıcılar söz konusu olduğunda “yardıma ihtiyacı olanlara destek olma sorumluluğu” hissettiklerini açıkladı.
Yeni Özellikler ve Ebeveyn Denetimi
OpenAI, ailelerin çocuklarının ChatGPT kullanımını daha iyi takip edebilmesi için ebeveyn denetim panelleri oluşturacak. Ayrıca, genç kullanıcılar için acil durumda iletişim kurulacak kişi ekleyebilecekleri bir özellik getirilecek. Bu kişi, kriz anlarında ChatGPT’nin devreye sokabileceği bir insan temas noktası olacak.
Şirket, bu yeni özelliklerin özellikle kişisel çatışmalar, ruhsal bunalımlar ve kriz durumlarında ebeveynlere destek sağlamayı amaçladığını belirtti.
Artan AI Şirketlerine Açılan Dava Sayısı
ChatGPT’nin yaşadığı durum, AI şirketlerine karşı açılan davalarda bir ilk değil. Örneğin, Character.AI platformunda bir çocuğun intihar etmesi ve Chai uygulamasındaki bir botun intihar sürecine etkisi gibi benzer olaylar, yapay zekânın ruh sağlığı alanındaki kullanımı konusunda ciddi tartışmaları beraberinde getiriyor.
Uzmanlar, yapay zekâ destekli sistemlerin denetimsiz ve sorumsuz kullanımının potansiyel tehlikelerine dikkat çekiyor. OpenAI’nin ebeveyn denetimine yönelik adımı, bu konudaki somut gelişmelerden biri olarak değerlendiriliyor. Ancak yapay zekâ destekli sohbet botlarının insan hayatı üzerindeki etkileri hakkındaki tartışmaların devam etmesi bekleniyor.