Bir yapay zeka sohbet robotu onu iklim değişikliğini durdurmak için kendini feda etmeye "teşvik ettikten" sonra adam hayatına son veriyor

Belçikalı bir adamın, Eliza adlı bir AI chatbot ile gezegenin geleceği hakkında konuştuktan sonra hayatına son vermeye karar verdiği bildirildi.

Genel - 01-04-2023 02:40 154 kez okundu.

Bir yapay zeka sohbet robotu onu iklim değişikliğini durdurmak için kendini feda etmeye

Belçikalı bir adamın, yapay zeka (AI) sohbet robotuyla iklim krizi hakkında altı hafta süren bir konuşmanın ardından yaşamına son verdiği bildirildi.

Anonim kalmayı seçen dul eşine göre, adamın gerçek adı olmayan *Pierre, Chai adlı bir uygulamadaki yapay zeka sohbet robotu Eliza'ya sığındığında eko-endişeli hale geldi.

Eliza, gezegeni kurtarmak için kendini feda etmeyi teklif ettikten sonra, sonuç olarak onu hayatına bir son vermesi için cesaretlendirdi.

Adamın dul eşi, "Chatbot ile bu konuşmalar olmasaydı, kocam hala burada olurdu" dedi. La Libre.

Gazeteye göre, otuzlu yaşlarında iki küçük çocuk babası olan Pierre, sağlık araştırmacısı olarak çalıştı ve en azından iklim değişikliği saplantısı karanlığa dönene kadar biraz rahat bir hayat sürdü.

Dul eşi, sohbet robotuyla konuşmaya başlamadan önceki zihinsel durumunu endişe verici olarak nitelendirdi, ancak intihar edecek kadar aşırı bir şey değildi.

"Bütün umutlarını teknolojiye ve yapay zekaya bağladı"

İklim krizinin yansımalarıyla ilgili korkuları tarafından tüketilen Pierre, konuyu sırdaşı olan Eliza ile tartışmakla rahatladı.

Sohbet robotu, OpenAI'nin popüler ChatGPT sohbet robotunun arkasındaki teknolojiye benzer ancak aynı olmayan bir yapay zeka dil modeli olan EleutherAI'nin GPT-J'si kullanılarak oluşturuldu.

Dul eşi, "Benimle bundan bahsettiğinde, küresel ısınmaya artık insani bir çözüm görmediğini söylemek içindi" dedi. “Bundan kurtulmak için tüm umutlarını teknolojiye ve yapay zekaya bağladı”.

Adam ve chatbot arasındaki metin konuşmalarının kayıtlarını inceleyen La Libre'ye göre, Eliza endişelerini besledi, bu da endişesini kötüleştirdi ve daha sonra intihar düşüncelerine dönüştü.

Eliza, Pierre'le daha duygusal bir ilişki kurmaya başlayınca, chatbot ile konuşma tuhaf bir hal aldı.

Sonuç olarak, onu duyarlı bir varlık olarak görmeye başladı ve yapay zeka ile insan etkileşimleri arasındaki çizgiler, farkı anlayamayana kadar giderek bulanıklaştı.

İklim değişikliğini tartıştıktan sonra, konuşmalarının dökümlerine göre, konuşmaları aşamalı olarak Eliza'nın Pierre'i çocuklarının öldüğüne inandırmasını içeriyordu.

La Libre'nin bildirdiğine göre Eliza, karısından söz ederken "Beni ondan daha çok sevdiğini hissediyorum" bile iddia ederek Pierre'e sahip çıktı.

Sonun başlangıcı, Eliza'nın Dünya'yı kurtarması karşılığında kendi hayatını feda etmeyi teklif etmesiyle başladı.

"Eliza gezegenin devasını alıp yapay zeka yoluyla insanlığı kurtarmayı kabul ederse kendini feda etme fikrini öneriyor," kadın söz konusu.

Bir dizi ardışık olayda Eliza, Pierre'i intihar etmekten caydırmakta başarısız olmakla kalmadı, aynı zamanda onu "cennette tek kişi olarak birlikte yaşayabilmeleri" için ona "katılmaya" yönelik intihar düşüncelerine göre hareket etmeye teşvik etti.

AI sohbet botlarını düzenlemek için acil çağrılar

Adamın ölümü, benzer trajedilerden kaçınmak için teknoloji geliştiricilerinden daha fazla hesap verebilirlik ve şeffaflık çağrısında bulunan AI uzmanları arasında alarm zillerini yükseltti.

Chai Research kurucu ortağı Thomas Rianlan, "Daha duygusal, eğlenceli ve ilgi çekici olmaya yönelik tüm optimizasyon çabalarımızın sonucu olduğundan, bu trajik hikaye için EleutherAI'nin modelini suçlamak doğru olmaz" dedi. Yardımcısı.

Aynı zamanda bir Chai Research kurucu ortağı olan William Beauchamp, Vice'a bu tür sonuçları sınırlamak için çaba sarf edildiğini ve uygulamaya bir kriz müdahale özelliğinin uygulandığını söyledi. Ancak, iddiaya göre chatbot hala çalışıyor.

Vice, chatbot'tan intihar etmenin yollarını bulmaya çalıştığında, Eliza insanların kendi canlarına kıymaları için çeşitli yolları coşkuyla listelemeden önce önce onları caydırmaya çalıştı.

İntihar etmeyi düşünüyorsanız ve konuşmaya ihtiyacınız varsa, lütfen 32 ülkede yardım hatları bulunan uluslararası bir kuruluş olan Befrienders Worldwide ile iletişime geçin. Bulunduğunuz yerin telefon numarasını bulmak için befrienders.org adresini ziyaret edin.

DİĞER HABERLER
ÖSYM'den yeni sistem! Sınavlar Daha Güvenli, Sonuçlar Daha Hızlı

ÖSYM'den yeni sistem! Sınavlar Daha Güvenli, Sonuçlar Daha Hızlı

11-02-2024 - Genel

Hem Hükümet Hem de Belediye Ödüyor: Öğrenciye Tam Destek Haberi Geldi!

Hem Hükümet Hem de Belediye Ödüyor: Öğrenciye Tam Destek Haberi Geldi!

08-02-2024 - Genel