أعلنت شركة “OpenAI”، الشركة المطورة لـ”ChatGPT”، امس الإثنين عن إبرام صفقة ضخمة مع شركة أمازون “Amazon” لشراء خدمات الحوسبة السحابية بقيمة 38 مليار دولار على مدى السنوات السبع القادمة.
وتأتي هذه الخطوة الإستراتيجية لتأمين البنية التحتية اللازمة للشركة من أجل التوسع السريع في مجال أعباء عمل الذكاء الاصطناعي الوكيل (Agentic Workloads).
تفاصيل الصفقة والجدول الزمني
وأوضحت OpenAI أنها ستبدأ فورًا باستخدام قدرات الحوسبة السحابية من AWS (Amazon Web Services). وتستهدف نشر كامل السعة المتفق عليها قبل نهاية عام 2026، مع إمكانية التوسع الإضافي حتى عام 2027 وما بعده.
في حين، تأتي هذه الصفقة عقب إعادة هيكلة OpenAI الأسبوع الماضي. والتي حررت الشركة من شرط الحصول على موافقة مايكروسوفت (Microsoft) لشراء خدمات الحوسبة من شركات أخرى. مما يمنحها مرونة أكبر في تأمين مواردها.
خطة استثمارية ضخمة والتوسع العالمي
تعد الصفقة مع أمازون جزءًا من خطة “OpenAI” الأكبر لتنمية قوتها الحاسوبية. والتي تتضمن إنفاق أكثر من تريليون دولار على مدى العقد القادم. وفقا لموقع “تك كرانش”.
وقد أعلنت الشركة بالفعل عن إنشاء مراكز بيانات جديدة بالتعاون مع شركات مثل أوراكل (Oracle)، وسوفت بنك (SoftBank) وآخرين.
كما عززت “OpenAI” إمداداتها من الرقائق من خلال صفقات مع شركات تصنيع الرقائق الكبرى مثل نيفيديا (Nvidia)، وإيه إم دي (AMD)، وبرودكوم (Broadcom).
مخاوف “فقاعة الذكاء الاصطناعي”
ويرى بعض المحللين أن هذا الارتفاع المتزايد في الاستثمارات من قبل “OpenAI” وعمالقة التكنولوجيا الآخرين يشير إلى أن الصناعة تتجه نحو ما يُعرف بـ “فقاعة الذكاء الاصطناعي”.
ويشيرون إلى أن هذه المبالغ الهائلة تُنفق لتعزيز تكنولوجيا لم تثبت جدواها بعد. وقد تكون خطيرة، دون وجود مؤشرات واضحة على عائد استثماري مجدٍ ومضمون.
وفي وقت سابق، كشفت شركة “OpenAI” عن نموذجي استدلال (Reasoning Models) جديدين مصممين خصيصًا لتمكين المنصات من التصنيف الآلي للمحتوى الضار.
وتأتي هذه الخطوة لتضع “OpenAI” في موقع المزوّد الرئيسي لأدوات الإشراف على المحتوى المدعومة بالذكاء الاصطناعي عبر الإنترنت.
نماذج تظهر طريقة عملها
كما أعلنت “OpenAI” عن نموذجي “gpt-oss-safeguard-120b” و “gpt-oss-safeguard-20b”. وهما إصدارات محسنة من نموذج أُطلق في أغسطس.
بينما الميزة الأبرز لهذه النماذج هي قدرتها على الاستدلال (Reasoning) وإظهار طريقة عملها. ما يمنح المطورين شفافية مباشرة حول كيفية وصول النموذج إلى قرار تصنيف محتوى معين على أنه ضار.




















