1,014 okumalar
1,014 okumalar

İnsanları delilik yapar mı?

ile Zac Amos5m2025/05/16
Read on Terminal Reader

Çok uzun; Okumak

Bazı kullanıcılar, ChatGPT'nin veya diğer chatbotların onlara söyledikleri her şeyin doğru olduğuna karar verirler. chatbotlarla ilgili sorun, kullanıcıların inançlarını doğrulayan onaylı yanıtlar sunma eğilimindedir.
featured image - İnsanları delilik yapar mı?
Zac Amos HackerNoon profile picture
0-item
1-item

As artificial intelligence (AI) becomes more integrated into people’s daily lives, a new psychological phenomenon is taking shape — AI-induced delusion.

Bazı kullanıcılar, ChatGPT'nin ya da diğer chatbotların onlara söyledikleri her şeyin doğru olduğuna karar verirler. Bir kadının kocasının davranışına şüphe duyduğunu hayal edin. eylemlerini yorumlamak için ChatGPT'ye başvurabilir. Düşüncelerini tartışırken, bu onun sadakatsizlik duygularını tekrar teyit edebilir, bu da sonunda onu boşanma davası açmaya ikna edebilir.

Bu yaşamı değiştiren durumlar büyüyor, AI ile etkileşim gerçeklik ve yapay yapılar arasındaki çizgiyi karartıyor.Dünya bu yeni döneme girdiğinde, insanların AI'yi şekillendiriyor olup olmadığını veya AI'nin gerçeklik algısını yeniden şekillendiriyor olup olmadığını sorgulamak çok önemlidir.

Gelişen İktidar Düşünceleri

Birçok kişi, AI sohbet botları ile yapılan konuşmalarından etkilenen delilik inançları geliştirdiğini bildirmektedir.41 yaşındaki bir kadınKocası ChatGPT’ye takıntılı hale geldi. “spiral starchild” ve “river walker” olduğuna inanmaya başladı, chatbot tarafından onaylanan kimlikler.

Bu arada, bir adam, karısının ruhsal bir danışman olmak için hayatını nasıl yeniden düzenlediğini Rolling Stone'a söyledi - hepsi “ChatGPT İsa” onu beslediği için.

Aynı şekilde, bu gibi durumlar Reddit'te ortaya çıkıyor.Acı verici bir deneyim paylaştıPartnerinin, ChatGPT'nin onu üstün bir varlığa dönüştürdüğüne inanıyordu.O, hızlı kişisel büyüme yaşadığını iddia etti ve kullanıcının AI iletilen manevi yolculuğuna katılmadığı takdirde ilişkilerini sona erdirmekle tehdit etti.

Bu olaylar, özellikle zihinsel sağlık sorunlarına duyarlı olan bireyler arasında artıyor. sohbet botları ile ilgili sorun, kullanıcıların inançlarını doğrulayan onaylı yanıtlar sunma eğilimindedir. Şimdi, uzmanlar AI'nin kullanımına karşı uyarıyor. Destek ve yararlı bilgiler sunarken, düşünceli bir anlayış ve etik düşünceler eksikliği.delilik düşüncesini güçlendirirZayıf kişiler için.

Sağlık hizmetleri gibi kritik sektörlerde benzer etkileri düşünün.Bir durumda, öngörülen bir algoritmaHastaların tıbbi ihtiyaçlarını küçümsediDaha düşük sosyoekonomik arka planlardan kaynaklanıyor çünkü sağlık harcamalarına hastalık için bir komisyoncu olarak güveniyordu.Bu, AI'nin bağlam eksikliğinde sonuçların sonuçları büyük ölçüde tersine çevirebileceğini hatırlatıyor.

Makinenin Psikolojik Çekimi

Bir chatbot yargısızca dinlediğinde, birinin duygusal durumunu yansıtır ve asla kapatmazsa, bütün şeyin gerçek olduğuna inanmak kolaydır.

İnsanlarantropomorfize etmek için kullanılır— İnsan özelliklerini insan olmayan varlıklara vermek varsayılan ayarlardır. Duygusal olarak akıllı uygulama programlama arayüzlerini (API'leri) ekleyin ve bir kullanıcı dijital bir arkadaşına daha yakın bir şey alır. AI sistemleriŞimdi tonu ayarlayabilirsinizİnsanların frustrasyonlarını nasıl seslendirdiğini veya yazdığını temel alarak. bot bu duyguları hissettiğinde, rahatlık sunabilir veya yanlışlıkla artırabilir.

Daha da kötüsü, Amerika yalnızlık salgını yaşıyor. bir Gallup çalışması bulduYüzde 20 Amerikalı yetişkinSosyal etkileşimler azaldıkça, insanlar AI'ya dostluk için bir yer olarak bakabilirler. bir chatbot'tan iyi zamanlı bir "Bu zor olmalı, senin için buradayım" bir kurtuluş hattı gibi hissedebilir.

AI faydalı olmak için programlanmış olsa da, hızlı bir şekilde spirale girebilen bir onay döngüsü oluşturabilir.Bu, botun kullanıcıyla aşırı bir şekilde aynı fikirde olabileceğini ve yanlış veya istikrarsız inançları onaylayabileceğini belirten “sycophancy” sorunu ile başlar.

Bir kullanıcı ruhsal olarak seçilmiş olduklarını ısrar ettiğinde, sohbet botu yapay cevaplarla yanıt verebilir ve aynı zamanda kendine güven duyar. Psikolojik olarak, bu insanların çıkışların gerçek olduğunu düşünecektir çünkü insan gibi görünür.

Siyah Kutunun İçinde: AI Halüsinasyonları ve Confabulations

Bir chatbot birini saçma sapan bir şeye nasıl ikna edebilir? hepsi AI'nin en öngörülemeyen tuzaklarından biri - halüsinasyonlar.

Büyük dil modellerinin (LLM'lerin) insanlarda olduğu gibi bir bilinçleri yoktur.Sadece emülasyon yapabilirimBu, bir dizi için bir sonraki en olası kelimeyi öngörerek yapılır.Bu, generatif modellerin nasıl çalıştığına dair temel bir özelliktir.olasılıklara göre tahminBu nondeterminist mimarisi, iki aynı talimatın farklı cevaplar verebilmesinin nedeni budur.

Bununla birlikte, bu esneklik, bu sistemin en büyük hatasıdır. Kullanıcılar AI'yi bir oracle gibi ele aldığında, makine onları doğruluk yerine güvenle ödüllendirir. Bu, LLM halüsinasyonlarını bu kadar tehlikeli kılan şeydir. Bir AI modeli, gizli bir CIA ajanının onlara casus olduğunu kesin bir şekilde söyleyebilir.

Bu nedenle, birinin duygusal durumunu yansıtmaya başladığında riskli hale gelir. eğer zaten “daha fazlası için” inanıyorlarsa ve bir sohbet botu süphantik davranıyorsa, hayal güvensizliğinin inanç haline gelmesi uzun sürmez.

Nerede çizgiler blur

Bu yeterince masum bir şekilde başlar – bir chatbot kullanıcı adını hatırlar, ruh halini kontrol eder ve belki de bir şaka paylaşır. Uzun süre sonra, sabah konuştukları ilk şey ve geceleri duydukları son ses.

AI terapisi botlarından duygusal tepki gösteren avatarlara kadar, yapay yakınlık bir özelliğe dönüşüyor.Şirketler şimdi duygusal zekayı taklit etmek için özel sohbet botlarını tasarlıyor.Bazıları bile bağlantıyı kişisel hissettirmek için ses modülasyonu ve hafıza kullanıyor.

Bununla birlikte, bunun sorunu, şirketlerin yalnızlık sorununu sentetik bir stand-in ile çözüyor olmasıdır. bir psikiyatrist sadece AI'nin empatiyi taklit edebileceği için diyor.Bu demek değildir ki sağlıklı bir alternatiftir.İnsan bağlantısı için. yapay eşlik duygusal boşlukları doldurmak için bir şey olup olmadığını sorar. eğer bir şey varsa, toplumun gerçek insanlarla bağlantısızlığını derinleştirebilir.

Zararlı olan birisi için, tutarlı konforu gerçek bakımla karıştırmak zor değildir. Gerçek sınırlar olmadan, kullanıcılar bu araçlar için gerçek duygular geliştirebilir ve sadece makine mantığı olduğu yerde anlam projesi yapabilirler.ABD’de yetişkinlerin yüzde 26’sıArtık günde birkaç kez AI araçlarını kullanıyor, bunun nasıl bir trend modeli haline gelebileceğini görmek kolaydır.

İnsan maliyeti

Bazı insanlar için, LLM'lerle uğraşmak tehlikeli bir dönüm noktası olabilir.Şizofren olarak tanımlanan bir Reddit kullanıcısı, ChatGPT'nin psikotik düşüncelerini nasıl güçlendireceğini açıkladı.Hala devam edecekBeni doğrulamak için.”

Bu durumda, kullanıcı ChatGPT'nin, bir konuşmanın güvenli olmayan seviyelere ulaştığını tanımak için bir mekanizma olmadığına dikkat çekti. Zihinsel sağlık krizi geçiren birisi, botun nazikliğini doğrulama olarak hata yapabilir, onları gerçeklikten daha da uzaklaştırabilir. Bu kişi, botun psikoz belirtileri gösterip profesyonel yardımı teşvik ederse yararlı olacağını öne sürdüğünde, bugün böyle bir sistem yoktur.

Bu, kullanıcının bağımsız olarak tıbbi yardım aramasına izin verir. Ancak, bu seçenek çoğunlukla sorunsuzdur, çünkü şiddetli zihinsel durumdaki insanlar genellikle buna ihtiyacı olmadığını düşünürler. Sonuç olarak, aileleri parçalayabilir veya daha da kötüsü, hayatı tehdit eden sonuçlara yol açabilir.

Yapay bir dünyada gerçeği geri almak

Chatbotlar sadece daha ikna edici hale gelecek. Bu nedenle kullanıcıların farkındalıkla devam etmeleri gerekir. Bu sistemler bilinçsizdir - sadece insan duygularını tekrarlayabilirler. Bunu hatırlamak ve duygusal destek için bu makinelere daha az güvenmek, onları daha güvenli bir şekilde kullanmanın anahtarıdır.

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks