OpenAI’ın ‘İnsanlığı Tehdit Edebilecek’ Yeni Yapay Zeka Atılımı: Q*

OpenAI CEO’su Sam Altman, çalışan araştırmacıların şirket yönetim kurulunu Q* (Q-Star) adlı potansiyel olarak tehlikeli bir yapay zeka keşfi konusunda uyarmasının ardından şirket yönetim kurulu tarafından görevden alınmıştı. Reuters‘ın haberine göre Q*, yapay zeka muhakemesini radikal bir şekilde geliştirebiliyor ve genel yapay zekanın (artificial general intelligence-AGI) geliştirilmesinde büyük bir atılım olarak değerlendirilebilir.

Üretken yapay zekanın özelliklerinden, hatta temel özelliklerinden biri de cevaplarını daha önce “öğrendiği” (ayrıştırdığı, incelediği, indekslediği vb.) bilgilere dayandırması. Bu amaç doğrultusunda, bir AI modeli ne kadar çok veriyle beslenirse model de o kadar iyi hale geliyor. Ancak şu anda modern yapay zeka teknolojileri gerçek anlamda bilişsel yeteneklere sahip değil ve kararlarını insanlar gibi muhakeme edemiyorlar.

Q*’ın genel yapay zeka alanında önemli bir atılım olduğuna, kararlarını muhakeme edebilen ve bu nedenle çeşitli görevlerde ve hatta disiplinlerde insanlarla rekabet edebilen otonom bir sistem olduğuna inanılıyor. Q*’ın yeteneklerinin özellikle, tipik olarak tekil doğru cevaplarla tanımlanan matematiksel problemlerin çözümünde dikkate değer olduğu söyleniyor ki bu da yapay zekanın muhakeme ve bilişsel yeteneklerinde önemli bir ilerlemeye işaret ediyor.

Yapay zeka modeli, ilkokul öğrencileriyle karşılaştırılabilecek düzeyde matematiksel problemlerin üstesinden gelme yeterliliği gösteriyor. Bu basit gibi görünse de yapay zeka dünyası için önemli bir gelişme. Neden mi? Böyle gelişmeler, Q*’ın muhakeme ve karar verme gerektiren çeşitli alanlarda geniş kapsamlı etkilere ve uygulamalara sahip olabileceği anlamına geliyor.

Son olarak, Q* isimli model yapay zeka teknolojisinin potansiyel riskleri ve ahlâki konular ile ilgili endişelere de yol açmakta. Yapay zeka topluluğu içindeki araştırmacılar ve bilim insanları, etkilerini tam olarak anlamadan hızla ilerleyen yapay zeka yetenekleriyle ilişkili tehlikeler hakkında alarm verdiler.

Bildiğiniz üzere dünya yapay zekanın geleceği ve güvenilirliği konusunda ikiye bölünmüş durumda. Elon Musk da dahil olmak üzere birçok kişi AI çözümlerinin kontrollü olması gerektiğine inanıyor. Q* adlı çözümün geliştirilmesi, OpenAI cephesinde inovasyonu ve sorumlu gelişim arasındaki denge hakkında devam eden tartışmada bir odak noktası haline gelebilirdi.

Birkaç OpenAI araştırmacısı yönetim kuruluna bir mektup yazarak, insanlık için önemli bir tehdit oluşturabileceğine inandıkları bir AI modelinin keşfini vurguladı. Bu mektubun şirkete ve üretken yapay zeka alanına yaptığı katkılara rağmen liderliğine duyulan güven eksikliğini gerekçe göstererek yönetim kurulunun Altman’ı kovma kararına yol açan önemli bir faktör olduğu söyleniyor.

Olaylar sonrasında Altman ile dayanışma gösteren ve Microsoft’a katılmayı düşünen 700’den fazla çalışan, şirketi toplu istifa ile tehdit etmişti. Bu güçlü tehdit, yönetim kurulunun görevden alınan CEO hakkındaki fikrini değiştirmesine neden oldu.

OpenAI yaptığı açıklamada, Altman’ın Bret Taylor, Larry Summers ve Adam D’Angelo’dan oluşan yeni yönetim kuruluyla birlikte geri dönmesi konusunda “prensipte anlaşma” yaptığını söyledi. D’Angelo’nun kısa süre önce Altman’ı kovan önceki yönetim kurulundan kalma bir isim olduğunu da not olarak düşelim. Bunun önceki yönetim kuruluna bir miktar temsil hakkı vermek için olduğu söyleniyor. Bret Taylor, Larry Summers ve Adam D’Angelo’yu içeren bu geçici kurulun amacı, OpenAI’deki yönetimin yeniden inşasına yardımcı olmak için 9 üyeye kadar yeni ve genişletilmiş bir kurul atamak olacak.

OpenAI ile temasa geçen Reuters, hem Q* projesinin hem de mektubun varlığını kabul etti. Ancak şirket, durumun ayrıntıları ya da medyada çıkan haberlerin doğruluğu hakkında yorum yapmaktan kaçındı.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir