ABD Savunma Bakanlığı (Pentagon), yapay zeka şirketi Anthropic’i “tedarik güvenliği açısından riskli” olarak sınıflandırdı. Kararın, şirketin yapay zeka teknolojisinin askeri amaçlarla kullanılmasına izin vermemesi nedeniyle alındığı bildirildi.
Pentagon’un açıklamasında “derhal yürürlükte olmak üzere” Anthropic yönetimine şirketin ve ürünlerinin tedarik güvenliği açısından riskli olarak sınıflandırıldığının resmi olarak bildirildiği belirtildi.
Ültimatom sonrası gerilim
ABD Savunma Bakanı Pete Hegseth, 24 Şubat’ta Anthropic’e ültimatom vermişti. Hegseth, Pentagon’un şirketin yapay zeka teknolojisini istediği şekilde kullanmasına 27 Şubat’a kadar izin verilmemesi halinde şirketin hükümetle olan sözleşmelerini kaybetme riski bulunduğunu açıklamıştı.
ABD Başkanı Donald Trump da 27 Şubat’ta federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatını vermişti.
OpenAI Pentagon’la anlaşma yaptı
Anthropic ile yaşanan gerilimin ardından OpenAI Üst Yöneticisi Sam Altman, 28 Şubat’ta Pentagon’la yeni bir anlaşma yapıldığını duyurdu. Buna göre OpenAI’ın yapay zeka modellerinin bakanlığın ağına entegre edilmesi planlanıyor.
Forbes’un haberine göre gelişmelerin ardından bazı kullanıcılar tepki gösterdi. 3 Mart’ta yaklaşık 1,5 milyon kişinin ChatGPT ve benzeri yapay zeka araçlarını kullanmayı bıraktığı iddia edildi.
Anthropic mahkemeye gidecek
Anthropic Üst Yöneticisi Dario Amodei, Pentagon’un kararının hukuken geçerli olmadığını düşündüklerini açıkladı. Amodei, şirketin karara karşı mahkemeye başvuracağını duyurdu.
Anthropic’in “tedarik güvenliği açısından riskli” ilan edilmesi, şirketin geliştirdiği Claude adlı yapay zeka aracının ABD hükümetiyle yapılan askeri sözleşmelerde kullanılmasının önüne geçebileceği şeklinde yorumlanıyor.