openAI'nın insanlığı koruma ekibi artık yok

OpenAI'nın gelecekteki güçlü yapay zekâ sistemlerini kontrol etmek için kurduğu "Süper Uyum" ekibi dağıldı. Ekibin lideri Jan Leike'nin istifası, şirket içinde güvenlik öncelikleri konusunda ciddi gerilimler olduğunu ortaya koydu.

openAI'nın insanlığı koruma ekibi artık yok

2023 yazında OpenAI, gelecekte insanlığın yok olmasına yol açabilecek kadar güçlü olabilecek yapay zekâ sistemlerini yönlendirmek ve kontrol etmek amacıyla "Süper Uyum" ekibini kurdu. Ancak bu ekip, bir yıldan kısa bir süre içinde dağıldı.

openAI'nın insanlığı koruma ekibi artık yok - Resim : 1

OpenAI, Bloomberg'e yaptığı açıklamada, "grubu daha derin bir şekilde araştırma çabalarına entegre ederek şirketin güvenlik hedeflerine ulaşmasına yardımcı olmayı" amaçladıklarını belirtti. Ancak ekibin liderlerinden biri olan ve yakın zamanda istifa eden Jan Leike'nin attığı bir dizi tweet, güvenlik ekibi ile şirketin geri kalanı arasında içsel gerilimlerin olduğunu ortaya çıkardı.

Cuma günü X'te yaptığı açıklamada, Leike, Süper Uyum ekibinin araştırmaları gerçekleştirmek için kaynaklar için mücadele ettiğini söyledi. Leike, "İnsandan daha akıllı makineler inşa etmek doğası gereği tehlikeli bir girişimdir. OpenAI, tüm insanlık adına muazzam bir sorumluluk üstleniyor. Ancak son yıllarda, güvenlik kültürü ve süreçleri parlak ürünlere öncelik vermeye başladı" dedi. OpenAI, Engadget'ın yorum talebine hemen yanıt vermedi.

Leike'nin bu hafta başında istifa etmesi, OpenAI baş bilim insanı Sutskevar'ın şirketten ayrıldığını duyurmasından sadece birkaç saat sonra gerçekleşti. Sutskevar, sadece Süper Uyum ekibinin liderlerinden biri değil, aynı zamanda şirketin kurucularından biriydi. Altı ay önce, CEO Sam Altman'ın yönetim kuruluna "tutarlı bir şekilde samimi" olmadığı gerekçesiyle işten çıkarılması kararına da dahil olmuştu. Altman'ın kısa süreliğine görevden alınması, şirket içinde bir isyana yol açmış ve neredeyse 800 çalışan, Altman geri getirilmezse istifa edeceklerine dair bir mektup imzalamıştı. Beş gün sonra, Sutskevar'ın eylemlerinden pişmanlık duyduğunu belirten bir mektup imzalamasının ardından Altman, OpenAI'nın CEO'su olarak geri döndü.

Leike'nin iddiaları üzerine yapılan yorum talebine yanıt olarak, OpenAI'nın halkla ilişkiler birimi, Engadget'a, Sam Altman'ın önümüzdeki birkaç gün içinde bir açıklama yapacağını belirttiği tweet'ine yönlendirdi.

Süper Uyum ekibini kurarken OpenAI, önümüzdeki dört yıl içinde bilgisayar gücünün yüzde 20'sini gelecekteki güçlü yapay zekâ sistemlerini kontrol etme sorununu çözmeye adamayı taahhüt etmişti. Leike, X'te ekibinin "hesaplama gücü için mücadele ettiğini ve kritik yapay zekâ güvenliği araştırmalarını gerçekleştirmekte giderek zorlandığını" yazdı. "Son birkaç aydır ekibim rüzgara karşı yelken açıyordu" dedi ve OpenAI'nın liderliğiyle şirketin temel öncelikleri konusundaki anlaşmazlıklar nedeniyle "bir kırılma noktasına" ulaştığını ekledi.

Son aylarda Süper Uyum ekibinden daha fazla ayrılık yaşandı. Nisan ayında, OpenAI'nin iki araştırmacıyı, Leopold Aschenbrenner ve Pavel Izmailov'u, bilgi sızdırma gerekçesiyle işten çıkardığı bildirildi.

OpenAI, Bloomberg'e yaptığı açıklamada, gelecekteki güvenlik çabalarının, araştırmaları büyük dil modellerine odaklanan bir başka kurucu ortak olan John Schulman tarafından yönetileceğini belirtti. GPT-4'ün geliştirilmesine öncülük eden bir yönetici olan Jakub Pachocki, Sutskevar'ın yerine baş bilim insanı olarak geçecek.

Süper Uyum ekibi, OpenAI'nın yapay zekâ güvenliğine odaklanan tek ekibi değildi. Ekim ayında şirket, yapay zekâ sistemlerinden kaynaklanabilecek potansiyel "felaket risklerini" önlemek için yeni bir "hazırlık" ekibi kurdu. Bu ekip, siber güvenlik sorunları ve kimyasal, nükleer ve biyolojik tehditler gibi konularla ilgileniyor.