ABD Uzay Kuvvetleri, veri güvenliği endişeleri nedeniyle ChatGPT gibi web tabanlı üretken yapay zeka araçlarının kullanımını durdurdu. Bu karar, Uzay Kuvvetleri’nin işgücüne verdiği isim olan Guardians’ı, büyük dil modelleri de dahil olmak üzere ChatGPT gibi yapay zeka araçlarını kullanmaya karşı uyarıyor.

Uzay Kuvvetleri sözcüsü Tanya Downsworth, bu yasağın stratejik bir duraklama olduğunu vurguladı. Downsworth, “Uzay Kuvvetleri, yapay zeka modellerinin Muhafızların rollerine ve USSF misyonuna entegre etmek için ileriye dönük en iyi yolu belirlerken, ABD Uzay Kuvvetleri bünyesinde Üretken Yapay Zeka ve Büyük Dil Modellerinin kullanımına ilişkin stratejik bir duraklama uygulandı” dedi.

Bu karar, Uzay Kuvvetleri’nin yapay zeka kullanımını nasıl düzenleyeceğine dair bir dönüm noktası niteliğinde. Uzay Kuvvetleri, yapay zekayı askeri operasyonlarda giderek daha fazla kullanmayı planlıyor, ancak bu teknolojinin güvenlik risklerini de değerlendiriyor.

Veri güvenliği, yapay zeka kullanımında önemli bir endişe kaynağıdır. Yapay zeka modelleri, büyük miktarda veriye dayanarak eğitilir. Bu veriler, hassas kişisel bilgiler veya hükümet sırları içerebilir.

ChatGPT gibi üretken yapay zeka araçları, kullanıcıların metin, kod, ses ve görüntü gibi farklı içerikler oluşturmasına olanak tanır. Bu araçlar, sahte haber ve dezenformasyon gibi kötü amaçlı içerikler oluşturmak için de kullanılabilir.

ABD Uzay Kuvvetleri’nin yasağı, bu riskleri azaltmak için bir adım olarak görülüyor. Yasaklama, Guardians’ın ChatGPT gibi araçları devlet bilgisayarlarında kullanmasını yasaklıyor. Bu, bu araçların hassas verilere erişmesini ve kötü amaçlı içerikler oluşturmasını zorlaştıracak.

ABD Uzay Kuvvetleri’nin yasağı, yapay zeka kullanımının güvenliği konusundaki endişeleri yansıtıyor. Bu karar, yapay zeka teknolojisinin yaygın olarak benimsenmesi için güvenlik risklerinin ele alınması gerektiğini gösteriyor.