Anthropic Sözünden Döndü! – ShiftDelete.Net

“`html

Yapay zeka alanında önemli bir yere sahip olan Anthropic, Claude’un geliştiricisi olarak Time dergisine konu hakkında açıklamalarda bulundu. Şirket, güvenlik önlemlerini tam anlamıyla sağlamadan yeni yapay zeka modellerini eğitim sürecine almayacağı yönündeki mevcut tutumunu değiştirdiğini duyurdu ve bu taahhütten resmi olarak geri adım attığını belirtti.

Anthropic Kurallarını Esnetiyor: Yapay Zeka Güvenliği Artık Daha Esnek

Öncelikli olarak sektördeki diğer rakiplerinden farklı bir tutum sergileyen Anthropic, bundan böyle daha esnek bir yaklaşım benimseyeceğini açıkladı. Şirket, geliştirme süreçlerini tamamen durdurmak yerine, hazırlayacağı şeffaf raporlar ve güvenlik yol haritalarına dayanarak ilerleyeceğini belirtti.

Anthropic yapay zeka güvenliği

Yetkililer, alınan bu kararın ideolojik bir geri adım değil, tamamen pratik bir seçim olduğunu vurguluyor. Hızla gelişen yapay zeka pazarındaki yoğun rekabet ve jeopolitik baskılar, şirketin tek taraflı kısıtlamalara devam etmesini mantıksız hale getirdi.

Rekabet Güvenliği Aştı: Anthropic Yapay Zeka Sınırlarını Genişletiyor

Kullanıcılar, Claude veya diğer yapay zeka araçlarını kullanırken herhangi bir değişiklik fark etmeyebilir. Ancak, arka plandaki eğitim kuralları, sistemin doğruluk payı ve kötüye kullanım potansiyeli gibi kritik unsurları belirlemekte önemli bir rol oynamaktadır.

Anthropic ve yapay zeka güvenliği

Anthropic, hem gelir hem de ürün portföyü açısından OpenAI ve Google gibi rakiplerini geride bırakarak, hızlı bir büyüme göstermektedir. Ancak, şirketin önceki katı güvenlik kuralları, bu büyümenin önünde büyük bir engel olarak duruyordu. ABD’deki federal yapay zeka yasalarının hâlâ geçerli olmaması, şirketleri rekabette sürdürülebilirlik ve gönüllü kısıtlamalar arasındaki seçime zorlamaktadır.

RAIDS AI CEO’su Nik Kairinos, Anthropic’in mevcut durumu ve güvenlik yasalarına katkıda bulunmasını eleştirerek, yeterli denetimlerin ve resmi düzenlemelerin gerekliliğini vurguladı. Kairinos, Anthropic’in yapay zeka güvenliğine ilişkin verdiği destekle ironik bir durumda olduğunu belirtti.

Anthropic, teknolojinin ön safhalarında yer alarak anlamlı güvenlik araştırmaları gerçekleştirmeleri gerektiğini savunuyor. Sizce, hızlı ilerleyen yapay zeka alanında şirketlerin güvenlik kurallarını esnetmesi kaçınılmaz mı? Daha sıkı kurallara sahip bir yapay zeka modeli mi tercih edersiniz yoksa bu tarz riskleri göze almak mı daha mantıklı?

“`