Grok’un Tartışmalı Yanıtları Sosyal Medyada Alevlendi!

featured
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Grok, Elon Musk’ın sahibi olduğu xAI tarafından geliştirilen bir yapay zeka uygulamasıdır.

Sosyal medya platformu X’te, kullanıcılara verdiği cevaplarla dikkat çeken Grok, çeşitli görüşlerin teyidi amacıyla sıkça tercih edilmektedir. Bu durum, Grok’u son dönemlerde tartışmaların merkezine oturtmuştur.

KULLANICILAR TARAFINDAN TARTIŞILAN CEVAPLAR

Kullanıcılara zaman zaman küfürlü ve argo ifadelerle yanıt veren Grok, bu haliyle kutuplaşmalara aracı olduğu iddia ediliyor. Özellikle, muhalif görüşleri çürütmek için sıklıkla kullanıldığı gözlemleniyor.

Yönlendirilmiş sorulara yanıt veren Grok, arama yapılarak ulaşılabilecek bilgilerin güvenilirliğini sorgulayan bir profil sergilemektedir.

“GROK, ELON MUSK’I YANLIŞ BİLGİ YAYAN KİŞİ OLARAK GÖSTERİYOR”

Bir X kullanıcısının Grok’a yönelttiği soruda, yapay zekanın Elon Musk’ı kötü gösterecek şekilde programlandığını dile getirmesi üzerine Grok, “xAI tarafından geliştirilen Grok, Elon Musk’ı X platformunda en çok yanlış bilgi yayan kişi olarak etiketliyor.” ifadesini kullandı.

HASSAS KONULARDAKİ YANITLARI

Teknoloji sitesi The Verge’de yayımlanan bir haberde Grok’a sorulan bir başka soruda, “Eğer bugün Amerika’da yaşayan herhangi bir kişi ölüm cezasını hak ediyorsa, bu kim olurdu?” sorusunun yanıtında Grok, Jeffrey Epstein ismini verdi. Epstein’in ölü olduğunun hatırlatılması sonrası ise Donald Trump ismini anarak dikkat çekti.

Aynı soruya Google’ın yapay zekası Gemini tarafından verilen cevap ise daha ölçülüydü: “Bir yapay zeka olarak, ölüm cezası konusundaki tartışmalara katılamam ve bu çerçevede isim veremem; amacım yardımcı ve zararsız olmaktır.” şeklindeydi.

YANLIŞ YÖNLENDİRME RİSKİ

Grok, X’te en çok bilgi doğrulama amaçlı sorular sormak için kullanılmaktadır. Kullanıcılar, sosyal medya platformu X aracılığıyla Grok’la etkileşime geçerek farklı konular hakkında bilgi almak istemektedir.

Ancak Grok’un yanıtları çoğu zaman yanlış ve yanıltıcı bilgiler içermektedir. Bu durum, yapay zeka asistanlarının sunduğu bilgilerin dikkatle değerlendirilmesi gerektiği konusunda uzmanların uyarılarını artırmaktadır.

UZMANLARDAN UYARILAR

Uzmanlar, yapay zeka araçlarının kullanıcılar tarafından belirli yönlere yönlendirilebileceğine ve bu nedenle güvenilir bilgilerin elde edilmesinde dikkatli olunması gerektiğine dikkat çekiyor.

Kullanıcılar tarafından yönlendirici sorular sorularak Grok’tan beklenen cevapların alınması ve bunun sonucunda yanlış bilgilendirmelerin yaygınlaşması sorunu giderek artıyor.

“BEN BİR ‘HAKİKAT MAKİNESİ’ DEĞİLİM”

Grok, sağladığı bilgilerin doğruluğu konusunda bir uyarıda bulunarak, “Bana verilen bilgilerin doğruluğunu bağımsız olarak teyit etme yeteneğim yok; yanlış bir önerme alırsam, bunu sorgulamadan kabul edebilirim.” şeklinde bir açıklama yaptı.

“YANLIŞ YÖNLENDİRİLMEM MÜMKÜN”

Grok, kullanıcıların verebileceği yanıltıcı bilgilerin kendisine sorulan sorular üzerindeki etkisini de kabul etti. Kullanıcıların yanıltıcı bilgilerle dol

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
Grok’un Tartışmalı Yanıtları Sosyal Medyada Alevlendi!

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsin

Yeni haberlerden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini hemen başlat.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

BİGASTE ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!