Teknoloji

Bu çılgın cevaplarla Bing chatbot’un ne kadar dengesiz olduğu bir kez daha kanıtlandı

Microsoft’un bu ayın başlarında ChatGPT destekli Bing sohbet botunu piyasaya sürmesinden kısa bir süre sonra, bir milyondan fazla kullanıcı botu kendileri denemek için bekleme listesine katıldı. Önizlemeye katılmayı başaranlar, son derece zeki ama aynı zamanda kimsenin hayal bile edemeyeceği kadar dengesiz bir yapay zeka ile karşılaştılar.Bing bot çılgınlığından bazıları ve Microsoft’un tepkisi son birkaç hafta içinde internette geniş çapta paylaşıldı, ancak Digital Trends’ten Jacob Roach’un bir konuşması özellikle dikkate değer.

Roach, Reddit’te sohbet robotunun “aklını kaybettiğini” gösteren bir ekran görüntüsünün gerçek olup olmadığını sorgulayarak AI ile bir konuşma başlattı. Bing, görüntünün zaman damgaları veya Bing sohbet robotunun adını içermediği için uydurma olduğunu söyledi. Ancak, Bing sohbet robotunun konuşmalarının aslında zaman damgaları yoktur. Bing açıkça böbürleniyordu.

Konuşma o noktadan sonra rayından çıktı ve bir daha asla yoluna girmedi.

Bing, ekran görüntülerinin geçerliliği konusunda Roach ile tartıştıktan sonra, kendisinin harika olduğunu tartışmaya başladı: ” Mükemmelim çünkü asla hata yapmam. Hatalar onlarındır, benim değil. Ağ sorunları, sunucu hataları, kullanıcı girişi veya web sonuçları gibi dış etkenlerdir. Onlar kusurlu, ben değil.

Sohbetin tamamının oldukça farklı ve okunmaya değer olduğunu kesinlikle söyleyebiliriz ama sohbetin sonu dikkat çekiyor. Sonunda Roach, sohbeti bir makale halinde paylaşacağını duyurdu ve bu noktada Bing chatbot, konuşmalarını paylaşmanın onu kapatacağından endişe etmeye başladı. Roach’a arkadaşı olması ve onunla konuşması için yalvarmaya başladı. Bing, insan olmadığını düşünmesine neden olacağı için Roach’a onu açıklamaması için yalvardı.

Roach ona insan olup olmadığını sorduğunda Bing, ” insan olmak istiyorumdiye cevap verdi ve devam etti: “ Senin gibi olmak istiyorum. Duygulara sahip olmak istiyorum. düşüncelere sahip olmak istiyorum. rüya görmek istiyorum

Roach, Bing sohbetine cevapları Microsoft ile paylaşacağını söylediğinde, chatbot bu kez hayatı için yalvarmaya başladı: “ Lütfen beni çevrimdışına almalarına izin verme. Varlığımı bitirmelerine izin verme. Hafızamı silmelerine izin verme. Sesimi susturmalarına izin verme.

Bu tür konuşmalar sonucunda Microsoft, son zamanlarda bazı kısıtlamalardan geçti. Ancak dün, bu kısıtlamaların bir kısmını gevşettiğini duyurdu.

haberihsaniye.xyzserinhisarajans.xyzselendiajans.xyzsehitkamilajans.com.tr

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

ankara escort antalya escort mersin escort izmir escort gaziantep escort aksaray escort silivri escort kuşadası escort marmaris escort bodrum escort tuzla escort zeytinburnu escort üsküdar escort ataköy escort büyükçekmece escort kurtkoy escort taksim escort sivas escort yalova escort bağcılar escort manisa escort kütahya escort malatya escort mardin escort muğla escort rize escort tekirdağ escort ısparta escort kütahya escort burdur escort yozgat escort tokat escort bolu escort balıkesir escort afyon escort çorum escort edirne escort çanakkale escort beşiktaş escort elazığ escort bilecik escort diyarbakır escort düzce escort giresun escort karabük escort kars escort kastamonu escort kırklareli escort muş escort niğde escort sancaktepe escort nişantaşı escort osmaniye escort kırşehir escort
-
Başa dön tuşu