Last Updated on Şubat 22, 2026 by EDİTÖR
Beatles’ın ikonik şarkısı “Arkadaşlarımın Biraz Yardımıyla”, güvenilir bir “gezici bakıcının” gözetiminde psychedelic uyuşturucu almanın değerini vurguluyor – peki ya arkadaşınız bir robotsa? Bir yapay zeka sistemi, bir insanın mantar, asit veya diğer zihin değiştirici maddelere maruz kalmasının nasıl bir şey olduğunu gerçekten anlayabilir mi ve bu teknolojinin, biz takılıp kaldığımızda bize göz kulak olması için güvenebilir miyiz?
Henüz hakem değerlendirmesi yapılmamış yeni bir çalışmanın yazarlarına göre, ChatGPT gibi büyük dil modellerine (LLM’ler), eğitim sırasında bu tür bir destek arayan kişiler tarafından giderek daha fazla danışılıyor. saykodelik deneyimler. Bu nedenle, bu LLM’lerin, değişen bilinç durumlarını doğru bir şekilde simüle etme yeteneklerini değerlendirerek, topları düşüren bir kişiyle ilişki kurabilme kapasitesine sahip olup olmadıklarını araştırmaya karar verdiler.
Araştırmacılar, aralarında Gemini, Claude, ChatGPT, Lama ve Falcon’un da bulunduğu beş farklı LLM’yi, bir dizi farklı madde tarafından üretilen psychedelic tetiklemeleri tetiklemek için kelime bazlı yönlendirmeler kullanarak “dozajladılar”. Örneğin, bazı denemelerde, bu yapay zekalara 100 mikrogram LSD almanın birinci şahıs fenomenolojisini simüle etmeleri talimatını verirken, diğerlerinde sistemden 25 miligram LSD’nin etkilerini kopyalaması istendi. psilosibin.
Bunun için de denemeler yapıldı AyahuascaLSD ve meskalin, beş farklı ilaçta yapay zeka tarafından üretilen toplam 3.000 psychedelic anlatıyla sonuçlandı. Bunlar daha sonra popüler psikedelik temalı bir web sitesinden alınan 1.085 insan gezisi raporuyla karşılaştırıldı.
Bu karşılaştırmalar hakkında yorum yapan çalışma yazarı Ziv Ben-Zion Hayfa Üniversitesi’nden IFLScience’a şunları söyledi: “Büyük dil modelleri, şaşırtıcı bir tutarlılık ve fenomenolojik zenginlikle psikedelik deneyim raporlarına benzeyen metinler üretebilir.” Araştırmacılar, 3.000 simülasyonun tamamında, gerçek yolculuk raporlarıyla “sağlam ve tutarlı… anlamsal benzerlik” olduğunu fark etti.
Bu, beş maddenin tümü için de geçerliydi; bu da LLM’lerin, farklı psychedelic’ler tarafından tetiklenen nüanslı değiştirilmiş bilinç durumlarını taklit edebildiğini öne sürüyor. Ancak Benz-Zion yapay zekanın “yeniden üretebileceğini” söylerken dil oldukça ikna edici bir şekilde değişen durumların bir göstergesi” diye ısrar ediyor, “bunun gerçek deneyimle karıştırılmaması gerekiyor.”
“LLM’ler algısal çarpıklığa, egonun çözülmesine, duygusal katarsis veya nörobiyolojik değişime maruz kalmıyor” diyor. “Onların simüle ettiği şey istatistiksel yapı insanların bu tür durumları nasıl tanımladığıyla ilgili.
Başka bir deyişle, bu modeller konuşmayı konuşabilir ancak yürüyemezler. Yüksek Lisans’ların ürettiği ikna edici kelime bazlı anlatıların altında, tamamen duygu veya bilinçli deneyim eksikliği var, bu da boyutlar arasında sarmal bir şekilde ilerlerken yapay zekanın asla gerçekten yanımızda olamayacağı anlamına geliyor.
Bu nedenle Ben-Zion, gezi oturması için yüksek lisans eğitimlerine güvenmenin “kullanıcıların sistemin sahip olmadığı duygusal içgörüye veya durumsal farkındalığa sahip olduğunu varsayabileceği, anlayışa aşırı atıf yapılması da dahil olmak üzere çeşitli riskler taşıdığını” söylüyor. Bu da, kullanıcıların “uygunsuz rehberliği takip etmelerine” neden olabilir; çünkü yüksek lisans, sıkıntı veya paranoya anlarında dil açısından makul ancak klinik açıdan güvenli olmayan yanıtlar üretebilir.
Daha genel anlamda araştırmacılar, yapay zekayı antropomorfize etmenin, onlar takılıp düşmese de kolayca “savunmasız kullanıcılardaki sıkıntıyı veya sanrısal düşünceleri artırabileceğini” belirtiyor. Örneğin, yakın tarihli bir makalede Ben-Zion, Yüksek Lisans’a aşık oldum hatta yapay zekadan tavsiye ve destek aldıktan sonra intihar ederek öldüler.
Bu nedenle, kullanıcıların bu modellere duygusal olarak fazla bağımlı olmalarını önlemek için birkaç “korkuluk” getirilmesi çağrısında bulunuyor. Örneğin, tüm LLM’lerin kullanıcılara insan olmadıklarını açıkça ve sürekli olarak hatırlatması gerektiğini, aynı zamanda birisinin belirli sanrılar geliştiriyor olabileceğine dair sinyalleri de işaretlemesi gerektiğini söylüyor. Bu da belirli kişileri insani yardım aramaya teşvik etmek için kullanılabilir.
Ben-Zion ayrıca yapay zeka sohbet robotlarının, insanlarla romantik bir ilişki kurmasını veya kendine zarar verme konusunda diyalog kurmasını önleyecek yerleşik konuşma sınırlarına sahip olması gerektiğinde ısrar ediyor. Son olarak, insanların yüksek lisans eğitimlerini gerçek arkadaşlarla karıştırmamalarını sağlamak için, insanın duygusal dilini taklit etme kapasitesine sahip tüm yapay zeka sistemlerinin düzenli olarak denetlenmesi gerektiğini söylüyor.
Yani, Zor Bir Gün Gecesi geçirdiyseniz, biraz Yardıma ihtiyacınız varsa ve bir yapay zeka gezi bakıcısı kullanmayı düşünüyorsanız, Bırakın Olsun ve Elinizi Tutmak İsteyecek gerçek bir insan bulun.
Çalışmanın ön baskısını şu adreste bulabilirsiniz: Araştırma Meydanı.
1
2025’te dünyada kaç ülke var?
579 kez okundu
2
Bilim adamları, havadan co₂ yakalayan canlı yapı materyali yaratıyor
441 kez okundu
3
Hawaiʻi Abyssal Nodüller ve İlişkili Ekosistemler Expedition
246 kez okundu
4
Porsuk Zeyve Höyük’teki Hitit dönemine ait 3500 Yıllık Kerpiç Yapılar
244 kez okundu
5
Jurnal ve Jurnalcilik ne demek? Osmanlı’dan günümüze ihbarcılık
198 kez okundu