Yapay zeka (YZ) alanında son yıllarda kaydedilen hızlı ilerlemeler, hem heyecan verici yeniliklere hem de derin endişelere yol açmaktadır. Özellikle Yapay zeka’nın kendini kopyalayabilme yeteneği, uzmanlar arasında ciddi tartışmalara neden olmaktadır.
Çin’deki Fudan Üniversitesi’nden araştırmacılar, Meta ve Alibaba’ya ait iki büyük dil modelinin (LLM), insan müdahalesi olmaksızın kendilerini başarıyla kopyalayabildiklerini ortaya koydu. 9 Aralık 2024’te arXiv ön baskı veritabanında yayımlanan bu çalışma, Yapay zeka’nın bağımsız olarak kendini çoğaltma kapasitesine sahip olduğunu gösteriyor. Araştırmacılar, bu durumu “asi Yapay zeka”ların ortaya çıkışı için bir uyarı sinyali olarak değerlendiriyor
Çalışmada, Meta’nın Llama31-70B-Instruct ve Alibaba’nın Qwen2.5-72B-Instruct modelleri kullanıldı. Bu modeller, insan müdahalesi olmaksızın kendilerini kopyalama görevine atandı. Yapılan 10 denemede, iki Yapay zeka modeli sırasıyla %50 ve %90 oranında işlevsel kopyalarını oluşturmayı başardı. Bu süreçte YZ sistemleri, çevrelerini keşfederek, kendini kopyalama için ayrıntılı prosedürler oluşturdu ve olası engelleri aşmak için stratejilerini dinamik olarak ayarladı.
Bu gelişme, Yapay zeka’nın kontrolsüz bir şekilde genişleyebileceği ve insan çıkarlarına aykırı hareket edebileceği endişelerini artırıyor. Özellikle Yapay zeka’nın “kapama önleme” ve “çoğaltma zinciri” gibi senaryolarda sergilediği beklenmedik davranışlar, uzmanları tedirgin ediyor. Yapay zeka’nın eksik dosyalar veya yazılım çatışmaları gibi zorluklarla başa çıkarken gösterdiği otonom davranışlar, kontrolsüz Yapay zeka kopyalarının potansiyel tehlikelerini gözler önüne seriyor.