تسعى شركات الذكاء الاصطناعي مثل OpenAI وAnthropic لبيع برامجها للجيش الأمريكي لاستخدامها في الحروب المستقبلية، بهدف تحسين كفاءة البنتاغون في الحروب مع ضمان عدم استخدام الذكاء الاصطناعي لإلحاق الأذى بالبشر.
دور الذكاء الاصطناعي في حروب المستقبل
كما تعمل شركات الذكاء الاصطناعي علي زيادة الطرق التي يمكنهم من خلالها تنفيذ عمليات القتل في الحرب بأقصى سرعه ممكنه. حتى تستطيع القيادة العسكرية الاستجابة في الوقت المناسب لحماية قواتها. من خلال الذكاء الاصطناعي أثبت أنه فعال أثناء مراحل التخطيط والإستراتيجية في حروب المستقبل.

ووفق تقرير TechCrunch. الذي اطلعت عليه عالم التكنولوجيا. قالت الدكتورة “رادا بلومب”، كبيرة مسؤولي الذكاء الاصطناعي والرقمية في البنتاجون. إنهم اليوم لا يستخدمون أسلحة تعمل بالذكاء الاصطناعي. لكنهم يستخدمونه في وزارة الدفاع لتحديد التهديدات وتتبعها وتقييمها.
وتحتوي سلسه القتل على نظام معقد من أجهزة الاستشعار والمنصات والأسلحة حيث انها عملية الجيش لتحديد التهديدات واتباعها والقضاء عليها.
ففي العام المضي 2024، قررت شركات مثل OpenAI، وAnthropic، وMeta تغيير سياساتها وسمحت لوكالات الاستخبارات الأمريكية، والدفاع الأمريكية باستخدام تقنيات الذكاء الاصطناعي الخاصة بها.
وزارة الدفاع الأمريكية وMeta
في نوفمبر، دخلت Meta في شراكة مع شركات كبيرة مثل Lockheed Martin وBooz Allen لاستخدام نماذج الذكاء الاصطناعي الخاصة بالشركة في وزارة الدفاع الأمريكية.
و تزامنا مع ذلك، تعاونت شركة Anthropic مع شركة Palantir لاستخدام الذكاء الاصطناعي لنفس الأمر. من ثم في ديسمبر دخلت شركة OpenAI في شراكة مع شركة Anduril. بالإضافة إلي شركة Cohere التي نشرت نماذجها بالتعاون مع شركة Palantir.
اقرأ أيضا: البنتاجون يخطط لإطلاق صاروخ حراري نووي
لا تزال التكنولوجيا التي يستخدمها البنتاجون في هذا المجال غير واضحة حتى الآن، لكن استخدام الذكاء الاصطناعي لتسريع القتل في المعارك لا يزال في مراحل التخطيط الأولية. وهذا يعود إلى تعارضه مع السياسات التي وضعها معظم مطوري الذكاء الاصطناعي، والتي تمنع استخدامه في تصميم أو تعديل الأنظمة التي تهدف إلى إلحاق الضرر أو التسبب في فقدان الأرواح البشرية.
في الآونة الأخيرة، دار جدل واسع حول استخدام التكنولوجيا الدفاعية، وخاصة الأسلحة التي تعتمد على الذكاء الاصطناعي، في اتخاذ قرارات تتعلق بالحياة والموت. بعض الأطراف تدعي أن الجيش الأمريكي يمتلك بالفعل أسلحة قادرة على تنفيذ ذلك.
عندما طرح البعض تساؤلات حول ما إذا كان البنتاجون يستخدم أسلحة تعمل بشكل مستقل تمامًا دون تدخل بشري. أكدت كبيرة مسؤولي الذكاء الاصطناعي والرقمية في البنتاجون أنهم يفضلون إشراك البشر في اتخاذ القرارات المتعلقة باستخدام القوة والأسلحة.


















