OpenAI, yapay zekasını güçlendiren yeni nesil model Orion ile zorluklarla karşılaşıyor. Şirket, GPT-4'ün halefiyle elde edilen performans kazanımları söz konusu olduğunda belirli alanlarda zorluk çekiyor.
Bu, The Information'ın OpenAI çalışanlarına atıfta bulunarak hazırladığı bir rapordan geliyor. Bu çalışanlar, Orion ile görülen kalite artışının GPT-3'ten GPT-4'e geçerken görülenden 'çok daha küçük' olduğunu iddia ediyor.
Ayrıca bazı OpenAI araştırmacılarının Orion'un "belirli görevleri ele almada GPT-4'ten güvenilir bir şekilde daha iyi olmadığını" söylediği söyleniyor. Görünüşe göre kodlama daha zayıf bir nokta ve Orion bu alanda GPT-4'ü muhtemelen geride bırakmıyor - ancak Orion'un dil becerilerinin daha güçlü olduğu da belirtiliyor.
Yani, genel kullanım sorguları için - ve metni özetleme veya yeniden yazma gibi işler için - her şeyin nispeten iyi gittiği anlaşılıyor. Ancak bu söylentiler, yapay zekayı kodlama yardımcısı olarak kullanmayı düşünenler için pek de umut verici görünmüyor.
PEKİ SORUN NE?
Açıkça görüldüğü üzere, OpenAI, yapay zekasını eğitmek için mevcut veriler söz konusu olduğunda bir tür duvara tosluyor. LLM'ler (Büyük Dil Modelleri) kolayca elde edilebilecek birçok şeyi tüketti ve artık bu kaliteli eğitim verilerini bulmak önemli ölçüde daha zor bir süreç haline geliyor - bazı açılardan ilerlemeyi yavaşlatıyor.
Üstelik, bu eğitim hesaplama kaynakları açısından daha yoğun hale gelecek, yani Orion'u geliştirmek (ve çalıştırmak) - ve daha sonraki diğer yapay zeka modelleri - çok daha pahalı hale gelecek. Elbette, yapay zekanın kullanıcısı bir şekilde bu faturayı ödeyecek ve hatta daha gelişmiş modellerin geliştirilmesinin "finansal olarak imkansız" hale gelmesinden bile söz ediliyor.