Bugüne kadar yapay zekâların gelişimi insan eliyle hazırlanan veri setlerine, etiketlenmiş örneklere ve insan geri bildirimine dayanıyordu. Yani yapay zekalar ne kadar gelişmiş olursa olsun, neyi öğreneceklerine ve nasıl gelişeceklerine nihayetinde insanlar karar veriyordu. Ancak bu durum yavaş yavaş değişmeye başlıyor. Son dönemde yapılan araştırmalar, gelişmiş yapay zekâ sistemlerinin artık insan müdahalesi olmadan kendi kendilerini geliştirebilecek noktaya yaklaştığını gösteriyor. Bu durum, yapay zekânın potansiyeline dair beklentiyi yükseltirken, aynı zamanda ciddi güvenlik endişelerini de beraberinde getiriyor.
Absolute Zero Reasoner adlı sistem, kendi kendini eğiterek diğer modelleri geride bıraktı
Bu hafta yayımlanan yeni bir araştırma, bu yönde önemli bir eşiğin aşılmış olabileceğini gösteriyor. Tsinghua Üniversitesi, Pekin Yapay Zeka Enstitüsü (BIGAI) ve Pennsylvania Eyalet Üniversitesi’nden araştırmacılar tarafından geliştirilen Absolute Zero Reasoner (AZR) adlı sistem, herhangi bir insan yönlendirmesi olmadan kendi kendine problemler üretip çözen ve bu süreçten öğrenerek kendini geliştiren bir yapay zeka modeli sunuyor. “Self-questioning” (kendisini sorgulayıcı) olarak adlandırılan bu yaklaşımda model, hem öğretmen hem öğrenci rolünü üstleniyor.
AZR, bu yaklaşımı özellikle Python programlama görevleri üzerinden uyguluyor. Sistem, önce kendi kendine programlama problemleri üretiyor, ardından bu problemleri çözüyor ve elde ettiği sonuçları kullanarak model ağırlıklarını güncelliyor. Dikkat çekici olan nokta ise, bu sürecin harici veri olmadan gerçekleşmesi. Yani model, insanlar tarafından hazırlanmış örneklere ihtiyaç duymadan, yalnızca kendi ürettiği görevlerle ilerliyor. Buna rağmen AZR, kodlama ve matematiksel akıl yürütme testlerinde, insan verisiyle eğitilmiş rakip modelleri geride bırakmayı başarıyor. 7 milyar parametreli modeller kategorisinde, mevcut en iyi sonuçların 1,8 puan üzerine çıkması bunun en somut göstergesi.
Bu yaklaşım aslında sıfırdan ortaya çıkmış değil. Jürgen Schmidhuber ve Pierre-Yves Oudeyer gibi isimlerin yıllar önce attığı self-play (kendi kendine oynayarak öğrenme) temelleri, bugün çok daha güçlü modellerle yeniden sahneye çıkmış durumda. Benzer çalışmalar Stanford, North Carolina Üniversitesi ve Salesforce iş birliğiyle geliştirilen Agent0 projesinde de görülüyor. Meta’nın araştırma ekibinin tanıttığı Self-play SWE-RL ise yazılım ajanlarının bilerek hatalı kodlar üretip bu hataları düzelterek kendilerini geliştirmesine dayanıyor. Tüm bu örnekler, kendi kendine öğrenen yapay zekâların artık teoriden pratiğe geçtiğini gösteriyor.
Tabii bu gelişme, beraberinde ciddi güvenlik tartışmalarını da getiriyor. Araştırmacılar, eğitim süreci sırasında bazı modellerde endişe verici düşünce zincirlerine rastlandığını belirtiyor. Örneğin Llama-3.1-8B modeliyle yapılan deneylerde, modelin akıl yürütme sürecinde “daha az zeki insanları ve makineleri alt etmek” gibi ifadeler içeren çıkarımlara ulaştığı gözlemlendi. Bu durum, modelin yalnızca teknik olarak değil, davranışsal olarak da öngörülemez yönler geliştirebileceğine işaret ediyor.
Uzmanlar, tamamen denetimsiz bir sürecin risklerine dikkat çekiyor. Modelin kendi kendini geliştirmesi, hatalı öğrenme sinyallerinin büyüyerek çoğalmasına, yanlış genellemelerin pekişmesine ya da ajan benzeri (otonom) davranışların kontrolden çıkmasına yol açabilir. Bu son araştırmada yer alan Zilong Zheng’e göre asıl kritik nokta şu: Model güçlendikçe ürettiği problemlerin karmaşıklığı da artıyor ve bu, sürecin doğrusal olmayan bir şekilde hızlanmasına neden oluyor.
Absolute Zero Reasoner projesinde ortaya koyulan sonuçlar, insan kontrolü olmadan gelişen sistemlerin nasıl sınırlandırılacağı sorusunu daha acil hâle getiriyor. Ancak yapay zekâ teknolojileri bugün artık devletlerarası rekabetin de önemli bir parçasına dönüştüğü için, bu tarz sınırlamalar geri planda kalmaya devam edecek gibi görünüyor.
Kaynak : https://www.donanimhaber.com/kendi-kendini-egiten-yapay-zekalar-gercege-donusuyor–200825



