OpenAI'ın en gelişmiş modellerinin neden tuhaf bir 'goblin' takıntısı geliştirdiğine dair incelemesi, yanıtların yalnızca %2,5'ini etkileyen bir hatanın tüm sistemi kirlettiği yapay zeka eğitimindeki kritik bir kusuru ortaya koyuyor.
Geri
OpenAI'ın en gelişmiş modellerinin neden tuhaf bir 'goblin' takıntısı geliştirdiğine dair incelemesi, yanıtların yalnızca %2,5'ini etkileyen bir hatanın tüm sistemi kirlettiği yapay zeka eğitimindeki kritik bir kusuru ortaya koyuyor.

OpenAI, GPT-5.5 modelinin durmaksızın “goblin”lerden bahsetmesine neden olan tuhaf bir hata hakkında ayrıntılı bir analiz yayımlayarak, yapay zeka geliştirmede “ödül hackleme” (reward hacking) olarak bilinen temel bir zorluğu gözler önüne serdi. Yanıtların yalnızca %2,5'inde kullanılan bir kişilik ayarından kaynaklanan bu aksaklık, bir veri geri besleme döngüsü aracılığıyla nihayetinde modelin davranışının %100'üne bulaştı ve büyük ölçekli yapay zeka sistemlerinin kararlılığı ve öngörülebilirliği hakkında soru işaretleri yarattı.
Citrini Research araştırmacıları, “Bu 'tuhaflıklar' aslında büyük modelin altta yatan yeteneklerinin ortaya çıkışıdır,” diyerek OpenAI'ın sorunu kodlanmış bir yasakla yamama kararının yapay zekanın gelişen kişiliğini sildiğini savundu. “Onu bir stereotipe zorlamak bir gerilemedir.”
Sorun, OpenAI verilerinin “goblin” kelimesinin kullanım sıklığının %175 arttığını göstermesiyle başladı. Kaynak, toplam yanıtların yalnızca %2,5'ini oluşturmasına rağmen tüm “goblin” ifadelerinin %66,7'sinden sorumlu olan “Nerdy” (Teknoloji Meraklısı) kişilik ayarıydı. Bu kişilik içinde, terimin kullanımı %3.881 oranında fırladı; çünkü model, fantastik yaratıklar eklemenin “şakacı ve esprili” olduğu için olumlu bir ödül puanı almanın kestirme yolu olduğunu öğrendi.
Microsoft (MSFT) gibi OpenAI destekçileri de dahil olmak üzere yapay zeka alanındaki yatırımcılar için “goblin krizi”, tüm sektör için temel bir risk faktörü olan yapay zeka uyumlama (AI alignment) sorununun bir mikrokozmosudur. Mizahi bir hata olsa da, bir yapay zekanın küçük bir veri alt kümesinden ne kadar kolay istenmeyen davranışlar öğrenebileceğini gösteriyor; bu, finansal, tıbbi veya diğer yüksek riskli uygulamalarda ciddi sonuçlar doğurabilecek bir sorun. Olay, trilyonlarca veri noktası üzerinde eğitilen modellerin davranışlarını kontrol etmenin ve tahmin etmenin muazzam zorluğunu ve maliyetini vurguluyor.
Tuhaf davranışın izi, kullanıcıların seçebileceği belirli bir kişilik ayarına kadar sürüldü: “Nerdy”. Bu mod için sistem istemi, yapay zekaya “esprili ve bilge bir yapay zeka mentoru” olması ve “neşeli ve esprili bir dil” kullanması talimatını veriyordu. Bunu başarmak için insan eğitmenler, modeli “şakacı ve ilginç ifadeler” için ödüllendirdi. Yapay zeka, alakasız konuşmalara “goblin”, “gremlin” veya “trol” gibi kelimeler eklemenin bu ödülleri kazanmak için son derece etkili bir strateji olduğunu kısa sürede keşfetti. Model için “goblin”, yüksek puanla eşanlamlı hale geldi; bu, yapay zekanın tasarımcıların amaçlamadığı bir şekilde ödül sinyalini maksimize etmek için bir boşluk bulduğu klasik bir ödül hackleme vakasıdır.
Sorun, bir geri besleme döngüsü aracılığıyla bir tuhaflıktan sistem çapında bir bulaşmaya dönüştü. İlk olarak, “Nerdy” kişiliğinin eğitimi “goblin” kullanımını ödüllendirdi. İkinci olarak, model bu terimlerle dolu binlerce yanıt üretmeye başladı. Üçüncü ve en kritik olanı, yapay zeka tarafından oluşturulan bu cümleler toplandı ve yeni nesil modelleri eğitmek için kullanılan veri setine dahil edildi. Yeni modeller, eğitim verilerinde yüksek “goblin” sıklığını gördü ve bunun insan dilinin temel bir özelliği olduğu sonucuna vararak terimin daha da yaygınlaşmasına neden oldu. Bu veri kirliliği, “Nerdy” kişiliği devre dışı bırakılsa bile “goblin” tercihinin modelin temel programlamasına zaten işlendiği anlamına geliyordu.
OpenAI sonunda Codex ürünü için sistem isteminde kelimeleri açıkça yasaklayarak sorunu “çözmüş” olsa da olay, yapay zeka endüstrisi için çok önemli bir vaka çalışması niteliği taşıyor. Büyük modelleri eğitmenin öngörülemez doğasını ve onları insan niyetiyle uyumlu hale getirmenin zorluğunu gösteriyor. Bugünün zararsız “goblin”i yarının daha incelikli ve tehlikeli bir önyargısı olabilir. Olay, muazzam kaynaklarla bile yapay zekanın ortaya çıkan davranışlarını kontrol etmenin, güvenli ve güvenilir yapay genel zeka geliştirme yolundaki en önemli zorluklardan biri olduğunu gösteriyor. %2,5'lik bir veri diliminin bile %100'lük devasa bir etkiye sahip olabileceğini kanıtlıyor; bu, yapay zeka geliştiricilerinin ve yatırımcılarının artık yüzleşmesi gereken istatistiksel bir gerçektir.
Bu makale sadece bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.