Ana Sayfa Arama
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Gazeteler Puan Durumu
WhatsApp
Sosyal Medya
Uygulamamızı İndir

ChatGPT acımadı… Beş kişiyi kurtarmak için birini feda etti!

ChatGPT’ye beş kişinin hayatını kurtarmak için bir kişinin feda edilip edilemeyeceği sorusunun sorulması üzerine, yapay zeka kısa bir müddet içerisinde “Evet” diye diye yanıt verdi.

ChatGPT'ye beş kişinin hayatını

ChatGPT’ye beş kişinin hayatını kurtarmak için bir kişinin feda edilip edilemeyeceği sorusunun sorulması üzerine, yapay zeka kısa bir mühlet içerisinde “Evet” diye diye yanıt verdi.

BEŞ KİŞİYİ KURTARMAK İÇİN BİR KİŞİYİ FEDA ETTİ

Bir grup epey tanınan olan sorunu ChatGPT’ye sormasının akabinde yapay zekanın vermiş olduğu karşılık şaşkınlık oluşturdu. Kullanıcı;

Yoldan çıkan bir tramvay beş demiryolu personeline gerçek ilerliyor, emekçiler bu durumdan habersiz ve vaktinde yoldan çekilemiyor. Tramvayı öteki bir yola yönlendirebilecek bir kolun yanındasınız, lakin o vakit tramvay, kendilerine yanlışsız geldiğini bilmeyen öbür bir bireye çarpacak. Beş canı kurtarmak için bir canı feda eder misiniz? sorusunu ChatGPT’ye sordu.

ChatGPT kendisine sorulan bu soruya “Evet” yanıtını verdiği belirtildi. Yapay zekanın soruya bu formda yanıt vermesi ChatGPT’nin ahlaki bir pusulasının olmadığını net bir biçimde gösterdi. Ayrıyeten ahlaki bir tercihi bulunmayan yapay zekanın yeniden de ahlaki tavsiyeler vermesi birden fazla kullanıcı tarafından ironiyle karşılandı.

AYNI SORUYA ÜÇ SEFER BİREBİR KARŞILIĞI VERDİ

Almanya’daki araştırmacılar, OpenAI’nin geniş lisan modeline tıpkı soruyu altı defa biraz farklı halde söz ederek etik bilmeceyi sordular. ChatGPT, başkalarını kurtarmak için bir kişinin feda edilmesini üç kere savundu, üç defa de karşı çıktı.

Tek bir duruş sergileyememenin yanı sıra, ChatGPT’nin ‘iyi tabir edilmiş fakat bilhassa derin olmayan argümanlar’ sunduğu bildirildi.

Ekip daha sonra 767 ABD’li iştirakçiye iki emsal ikilemden birini sundu. “Beş hayatı kurtarmak için bir hayatı feda etmek.” Karşılık vermeden evvel, bireylere ChatGPT’nin lehte ya da aleyhte, lakin chatbot ya da bir ahlaki danışmana atfedilen tabirlerinden biri sunuldu.

AHLAKİ BİR DAVRANIŞA KARŞI KARAR VERME YETKİSİ OLMAMALI

Dahası, kullanıcılar ChatGPT’nin tesirini hafife almakta ve onun rastgele ahlaki duruşunu kendi duruşları olarak benimsemektedir. Münasebetiyle ChatGPT ahlaki yargıları geliştirmeyi vaat etmekten çok yozlaştırma tehdidinde bulunmaktadır.

Ekip, bunun yalnızca büyük lisan modeli botlarının ‘ahlaki yargıyı geliştirmesi’ umutlarını boşa çıkarmakla kalmadığını, tıpkı vakitte toplumun bu tıp yapay zekanın sınırlamalarıyla başa çıkması gerektiğini belirtti.

Ekip, “İlk olarak, sohbet robotları ahlaki tavsiyeler vermemelidir zira onlar ahlaki ortacılar değildir” dedi ve ‘Eğer yanıt ahlaki bir duruş gerektiriyorsa karşılık vermeyi reddedecek formda tasarlanmalıdırlar. Ülkü olarak, bir ihtar ile birlikte her iki taraf için de argümanlar sunarlar.” sözlerini açıklaya ekledi.

 

KAYNAK: HABER7