OpenAI yapay zeka model güvenlik testlerini azalttı – FT

OpenAI yapay zeka model güvenlik testlerini azalttı – FT

.com — OpenAI, yapay zeka modellerinin güvenliğini test etmeye ayırdığı vakit ve kaynakları azalttı. Financial Times’ın Cuma günü bildirdiğine nazaran bu durum, teknolojisinin uygun korkulukları konusunda kimi kaygıları artırdı.

FT raporunda, bahse aşina sekiz şahsa dayandırılan bilgilere nazaran, OpenAI’ın modellerinin risklerini ve performansını kıymetlendiren işçi ve kümelere son vakitlerde değerlendirmeleri yapmak için yalnızca birkaç gün verildi.

FT raporuna nazaran, start-up’ın test süreçleri, riskleri azaltmaya yönelik daha az kaynak ve daha az vakit ayrılmasıyla birlikte daha az kapsamlı hale geldi.

Bu rapor, OpenAI’ın güncellenmiş yapay zeka modellerini piyasaya sürme ve bilhassa DeepSeek üzere yeni Çinli rakiplerin artan rekabeti karşısında rekabet avantajını muhafaza yarışı içinde olduğu bir devirde geldi.

OpenAI, yeni o3 modelini önümüzdeki hafta piyasaya sürmeye hazırlanıyor. Lakin şimdi kesin bir yayın tarihi belirlenmedi. Güncellenmiş modelleri piyasaya sürme telaşı, firmanın güvenlik denetimlerini potansiyel olarak tehlikeye atıyor.

Bununla birlikte, daha düşük güvenlik testi mühletlerine ait raporlar, yapay zekada eğitimden çıkarıma gerçek bir değişim yaşandığı bir periyotta geliyor. Çıkarım, yeni bilgilerin işlenmesi ve üretilmesi manasına gelirken, eğitim ise bir yapay zeka modelinin yeteneklerini geliştirmek için mevcut bilgileri kullanıyor.

OpenAI, Nisan ayının başlarında Japonya merkezli SoftBank Group Corp. (TYO:9984) liderliğindeki bir finansman cinsinde 40 milyar dolar topladığını ve şirketin bedelinin 300 milyar dolar olduğunu açıklamıştı.

Bu makale yapay zekanın dayanağıyla oluşturulmuş, çevrilmiş ve bir editör tarafından incelenmiştir. Daha fazla bilgi için Kural ve Şartlar kısmımıza bakın.

Kaynak: TR