ChatGPT’nin, Elon Musk’ın Grokipedia’sını kaynak olarak kullandığı tespit edildi

featured
service
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

ChatGPT’nin en yeni modeli GPT-5.2’nin, xAI tarafından geliştirilen ve tamamı yapay zeka tarafından üretilen Wikipedia alternatifi Grokipedia’yı kaynak olarak kullandığı ortaya çıktı. The Guardian’ın aktardığına göre model, özellikle İran siyaseti ya da Britanyalı tarihçi Sir Richard Evans gibi daha az bilinen konularda bu yapay zeka ansiklopedisine başvurabiliyor.

Yapay zekanın yapay zeka tarafından beslenmesi sorun yaratıyor

Bu durum, birkaç yıl önce yapay zeka eğitimiyle ilgili gündeme gelen tartışmaları yeniden alevlendirdi. Bazı uzmanlar, yapay zekanın yapay zeka tarafından üretilmiş verilerle beslenmesinin kaliteyi düşüreceğini ve “model çöküşü” adı verilen bir sürece yol açacağını savunmuştu. Her ne kadar bir yapay zeka kaynağını alıntılamak, onu eğitim verisi olarak kullanmakla aynı şey olmasa da, araştırma için yapay zekaya güvenen insanlar açısından yine de ciddi riskler barındırıyor.

Bu konudaki en büyük sorun, yapay zeka modellerinin zaman zaman halüsinasyon görmesi, yani gerçeğe aykırı bilgileri uydurabilmesi. Örneğin Anthropic, “Claudius” adlı yapay zeka modeliyle bir işletme denemesi yapmış ve sistemin defalarca hatalı beyanlarda bulunduğunu gözlemlemişti; hatta model, içecekleri bizzat kendisinin teslim edeceğini bile iddia etmişti. Nvidia CEO’su Jensen Huang da 2024’te bu sorunun çözümünün uzun süreceğini ve çok daha fazla hesaplama gücü gerektirdiğini kabul etmişti.

Buna rağmen pek çok kullanıcı, ChatGPT ve benzeri modellerin sunduğu bilgilerin doğru olduğunu varsayıyor ve yalnızca çok az kişi kullanılan kaynakları gerçekten kontrol ediyor. Bu nedenle ChatGPT’nin Grok’un ürettiği bilgileri tekrarlaması sorunlu görülüyor. Çünkü Grokipedia, insan editörler tarafından doğrudan düzenlenmiyor; içerikler tamamen AI tarafından oluşturuluyor ve kullanıcılar yalnızca değişiklik talebinde bulunabiliyor.

Bir yapay zekanın başka bir yapay zekayı kaynak göstermesi, döngüsel bir bilgi zinciri yaratıyor. Sonuçta doğrulanmamış içeriklerin modeller arasında birbirine referans verilerek dolaşıma girmesi mümkün hale geliyor. Bu durum, “başkası söyledi” mantığıyla yayılan insan söylentilerinden pek farklı değil. Böylece, yanlış bilgilerin sürekli tekrarlandıkça doğruymuş gibi algılanmasına yol açan yanıltıcı doğruluk etkisi ortaya çıkıyor. İnsanlık tarihi de benzer şekilde, nesiller boyunca aktarılan efsane ve mitlerle dolu. Ancak yapay zekaların veriyi insanlardan çok daha hızlı işlemesi, her sorguyla birlikte dijital efsanelerin çoğalması riskini artırıyor.

Daha da endişe verici olan ise bazı grupların bu durumu bilinçli olarak kullanmaya başlaması. The Guardian, kimi propaganda ağlarının “LLM tımarı” adı verilen bir yöntemle, yapay zeka modellerini yanlış bilgilerle beslemek amacıyla büyük miktarda dezenformasyon ürettiğini aktarıyor. Bu durum ABD’de de kaygı yaratmış durumda. Örneğin Google’ın Gemini modeli, 2024’te Çin Komünist Partisi’nin resmi söylemlerini tekrar etmekle eleştirilmişti. Şu an için bu sorun giderilmiş gibi görünse de, eğer LLM’ler doğrulanmamış ve denetlenmemiş yapay zeka kaynaklarını referans almaya devam ederse, kullanıcıların dikkat etmesi gereken yeni ve ciddi bir risk alanı doğmuş olacak.

Kaynak : https://www.donanimhaber.com/chatgpt-elon-musk-in-grokipedia-sini-kaynak-olarak-kullaniyor–201310

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
0
vir_sl_
Virüslü
ChatGPT’nin, Elon Musk’ın Grokipedia’sını kaynak olarak kullandığı tespit edildi

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsin

Yeni haberlerden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini hemen başlat.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Kamu Haberleri ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!

Bizi Takip Edin