ABD merkezli yapay zekâ şirketi Anthropic, yazılımlarının “felaket boyutunda” kötüye kullanımını önlemek amacıyla kimyasal silah ve patlayıcı alanında uzman personel aradığını duyurdu. BBC’nin 17 Mart 2026 tarihli haberine göre şirket, bu kapsamda LinkedIn üzerinden iş ilanı yayımladı.
İlanda, adayların “kimyasal silahlar ve/veya patlayıcı savunması” alanında en az 5 yıl deneyime sahip olması şartı yer aldı. Ayrıca başvuranların, kamuoyunda “kirli bomba” olarak bilinen radyolojik dağıtım cihazları hakkında bilgi sahibi olması gerektiği belirtildi.
Amaç: Kötüye kullanımı önlemek
Anthropic, söz konusu pozisyonla yapay zekâ sistemlerinin kimyasal silah veya yüksek etkili patlayıcı üretiminde kullanılmasının önüne geçmeyi hedefliyor. Şirket, gelişmiş yapay zekâ modellerinin güvenliğini artırmaya yönelik önlemleri genişletmeyi planlıyor.
Benzer adım OpenAI’dan
Benzer şekilde, yapay zekâ alanında faaliyet gösteren OpenAI de “biyolojik ve kimyasal risk” alanında uzman araştırmacı arayışında olduğunu daha önce duyurmuştu. Bu adımlar, yapay zekâ teknolojilerinin güvenli kullanımına yönelik küresel kaygıların arttığını gösteriyor.
Uzmanlara göre, yapay zekâ sistemlerinin kötüye kullanım riskine karşı bu tür önleyici adımların önümüzdeki dönemde daha da yaygınlaşması bekleniyor.





