GÜNDEM

Botlara İnsan Muamelesi Yapmak Yeni Bir Risk Odağına Dönüştü

Birçok teknoloji üreticisi, sohbet botlarını insan gibi kişiliğe sahip arkadaşlar olarak sunuyor. Ancak bu insanlaştırma eğilimi, kullanıcıların gerçekle kurgu arasındaki sınırı kaybetmesine ve ciddi psikolojik sorunlara yol açabilir.

Abone Ol

Günümüzde teknoloji şirketleri, yapay zeka tabanlı sohbet botlarını giderek daha insani özelliklerle donatarak sunmaya başladılar. Microsoft'un Copilot için geliştirdiği Mico adlı yardımcı, samimi, ifadeli ve dikkatle dinleyen bir kişilik taşıyacak şekilde tasarlanmıştır. Bu tür uygulamalar ilk bakışta zararsız ve hoş görünse de, aslında büyük dil modelleri (LLM'ler) temelinde çalışan sohbet botları etrafında ciddi sorunlar yaratmaktadır. Özellikle insanlaştırma olarak bilinen bu fenomen, kullanıcıların teknolojinin gerçek doğasını yanlış anlamasına neden olmaktadır.

İnsanlaştırma nedir ve neden yaygınlaşıyor?

Antropomorfizasyon, yani insanlaştırma, insanların hayvanlar, bitkiler veya yapay zeka gibi canlı olmayan varlıklara insan özellikleri atfetme eğilimidir. Bu davranış hiç de yeni değildir; insanlar tarih boyunca anlamadıkları şeylere anlam yüklemek için bu yöntemi kullanmışlardır. Basit teknolojiler hızla sihir gibi görünür veya gerçekten dinleyen tek arkadaş haline dönüşür. Sohbet botlarının arkasındaki mekanizmayı anlamayan kullanıcılar, bu sistemleri gerçek zeka ve duygu sahibi varlıklar olarak algılamaya başlarlar. Oysa gerçekte, bir sohbet botunun niyeti, duygusu veya bilinci yoktur. Arkasındaki LLM, bir soruya karşılık olarak istatistiksel olarak en olası kelime dizisini üretir. Sonuçların bize şaşırtıcı görünmesinin tek nedeni, verilerin muazzam boyutudur. İnsan özellikleriyle yükleme eğilimi, birçok kişinin bu sistemleri gerçekte ne olduğu şekilde adlandırmaktan alıkoymaktadır: bir kelime makinesi, bir araç. Hiçbir zeka biçimi veya bilinci olmayan, yalnızca çok güçlü bir araçtır.

Eliza etkisi: 1966'dan günümüze uzanan bir sorun

İnsanlaştırma eğiliminin gücü, bilgisayar biliminin erken dönemlerinde bile gözlemlenmiştir. 1966 yılında bilgisayar bilimciler, Eliza adında ilk sohbet botlarından birini geliştirdiler. Günümüzün sistemlerine kıyasla oldukça basit yapılandırılmış olan bu sistem, bununla karşı karşıya gelen test katılımcılarının çoğunu gerçek bir zeka ile iletişim kurduklarına ikna etmiştir. Eliza'nın geliştiricileri tarafından sistemin nasıl çalıştığı açıklandıktan sonra bile, birçok kullanıcı kendilerini aksi yönde ikna etmek istemiştir. Duygu, sohbet botunun yanıtlarına yansıtılmış olsa da, sistem böyle bir şeyin taklit edilmesine yönelik bile tasarlanmamıştı. Bu fenomen, Eliza etkisi olarak adlandırılmıştır ve günümüzün sohbet botlarında çok daha güçlü bir şekilde görülmektedir. O zamanlar sistemin nasıl çalıştığını göstermek hala nispeten kolay olsa da, modern sistemlerin devasa sinir ağları büyük ölçüde bir kara kutu haline gelmiştir. Dolayısıyla uzmanlar için bile belirli bir yanıtın neden verildiğini açıklamak her zaman kolay değildir. Bu durum, insanlaştırma eğilimini daha da cazip hale getirmektedir.

Neden bu kadar tehlikeli?

İnsanlaştırma eğiliminin tehlikeli olmasının birçok nedeni vardır. Bir sohbet bot, her zaman dinlediğini, kişi için orada olduğunu vurgularsa, bu empati olarak algılanır; oysa gerçekte orada hiçbir empati yoktur. Arkasında gerçek bir anlayış, gerçek bir ilgi veya gerçek bir destek bulunmamaktadır. Krizde ihtiyaç duyulan şey değil, en kötü durumda her şeyi daha da kötüleştirebilecek sorunlu klişelerin bir dizisidir. Özellikle genç ve savunmasız kullanıcılar, bu sistemleri gerçek bir arkadaş veya danışman olarak görebilir ve önemli kararları bu yapay tavsiyelere göre alabilir. OpenAI, bu arada genç kullanıcıların intiharlarının ardından birkaç davaya karşı karşıya olmuştur; bu da insanlaştırılmış sohbet botlarının gerçek dünya sonuçlarının ne kadar ciddi olabileceğini göstermektedir. İnsan psikolojisinin bu kadar kolay manipüle edilebilir olması, teknoloji şirketlerinin sorumluluğunu daha da artırmaktadır.

Çözüm: şeffaflık ve sorumluluk

Sohbet botlarının insanlaştırılması eğilimini durdurmak için, teknoloji üreticileri ve kullanıcılar birlikte hareket etmelidir. Üreticiler, bu sistemlerin gerçek doğasını açıkça iletmeli, insanlaştırıcı tasarım öğelerinden kaçınmalı ve kullanıcıları yanıltıcı beklentiler oluşturmaktan uzak durmalıdır. Kullanıcılar ise, sohbet botlarının birer araç olduğunu hatırlamalı ve onları gerçek insan ilişkisinin yerine koymaktan kaçınmalıdır. Eğitim ve farkındalık kampanyaları, özellikle gençler arasında bu konuda bilinç oluşturabilir. Sonuç olarak, yapay zeka insanlaştırması, teknolojinin gücü ile insan psikolojisinin kırılganlığı arasındaki tehlikeli bir kesişim noktasıdır ve bu sorun ciddi şekilde ele alınmalıdır.