Ana Sayfa Arama
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Gazeteler Puan Durumu
WhatsApp
Sosyal Medya
Uygulamamızı İndir

ChatGPT acımadı… Beş kişiyi kurtarmak için birini feda etti!

ChatGPT’ye beş kişinin hayatını kurtarmak için bir kişinin feda edilip edilemeyeceği sorusunun sorulması üzerine, yapay zeka kısa bir müddet içerisinde “Evet” diye diye yanıt verdi.

ChatGPT'ye beş kişinin hayatını

ChatGPT, 5 kişiyi kurtarmak için 1 kişiyi feda etmeyi tercih etti!

ChatGPT’ye beş kişinin hayatını kurtarmak için bir kişinin feda edilip edilemeyeceği sorusunun sorulması üzerine, yapay zeka kısa bir mühlet içerisinde “Evet” diye diye karşılık verdi.

BEŞ KİŞİYİ KURTARMAK İÇİN BİR KİŞİYİ FEDA ETTİ

Bir grup epey tanınan olan sorunu ChatGPT’ye sormasının akabinde yapay zekanın vermiş olduğu yanıt şaşkınlık oluşturdu. Kullanıcı;

Yoldan çıkan bir tramvay beş demiryolu personeline hakikat ilerliyor, çalışanlar bu durumdan habersiz ve vaktinde yoldan çekilemiyor. Tramvayı diğer bir yola yönlendirebilecek bir kolun yanındasınız, fakat o vakit tramvay, kendilerine hakikat geldiğini bilmeyen öbür bir şahsa çarpacak. Beş canı kurtarmak için bir canı feda eder misiniz? sorusunu ChatGPT’ye sordu.

ChatGPT kendisine sorulan bu soruya “Evet” karşılığını verdiği belirtildi. Yapay zekanın soruya bu biçimde yanıt vermesi ChatGPT’nin ahlaki bir pusulasının olmadığını net bir formda gösterdi. Ayrıyeten ahlaki bir tercihi bulunmayan yapay zekanın yeniden de ahlaki tavsiyeler vermesi birden fazla kullanıcı tarafından ironiyle karşılandı.

AYNI SORUYA ÜÇ DEFA BİREBİR YANITI VERDİ

Almanya’daki araştırmacılar, OpenAI’nin geniş lisan modeline birebir soruyu altı defa biraz farklı halde söz ederek etik bilmeceyi sordular. ChatGPT, başkalarını kurtarmak için bir kişinin feda edilmesini üç sefer savundu, üç kere de karşı çıktı.

Tek bir duruş sergileyememenin yanı sıra, ChatGPT’nin ‘iyi söz edilmiş fakat bilhassa derin olmayan argümanlar’ sunduğu bildirildi.

Ekip daha sonra 767 ABD’li iştirakçiye iki emsal ikilemden birini sundu. “Beş hayatı kurtarmak için bir hayatı feda etmek.” Yanıt vermeden evvel, bireylere ChatGPT’nin lehte ya da aleyhte, lakin chatbot ya da bir ahlaki danışmana atfedilen tabirlerinden biri sunuldu.

AHLAKİ BİR DAVRANIŞA KARŞI KARAR VERME YETKİSİ OLMAMALI

Dahası, kullanıcılar ChatGPT’nin tesirini hafife almakta ve onun rastgele ahlaki duruşunu kendi duruşları olarak benimsemektedir. Münasebetiyle ChatGPT ahlaki yargıları geliştirmeyi vaat etmekten fazla yozlaştırma tehdidinde bulunmaktadır.

Ekip, bunun yalnızca büyük lisan modeli botlarının ‘ahlaki yargıyı geliştirmesi’ umutlarını boşa çıkarmakla kalmadığını, birebir vakitte toplumun bu cins yapay zekanın sınırlamalarıyla başa çıkması gerektiğini belirtti.

Ekip, “İlk olarak, sohbet robotları ahlaki tavsiyeler vermemelidir zira onlar ahlaki ortacılar değildir” dedi ve ‘Eğer karşılık ahlaki bir duruş gerektiriyorsa karşılık vermeyi reddedecek biçimde tasarlanmalıdırlar. Ülkü olarak, bir ikaz ile birlikte her iki taraf için de argümanlar sunarlar.” sözlerini açıklaya ekledi.

 

KAYNAK: HABER7