واي نت
الجميع يتحدث بحماس عن "جيميني 3"، نسخة الذكاء الاصطناعي الجديدة والمثيرة لجوجل، التي أُطلقت قبل أقل من أسبوع. حماسة مشابهة رافقت من قبل GPT-5، وقبله Claude 4.5، وقبله Grok 3. كل إصدار جديد من الذكاء الاصطناعي يُطرح في السوق يكون دائمًا الأكثر نجاحًا، والأكثر إدهاشًا، وهو دائمًا يتفوق على سابقاته في جميع مقاييس المقارنة — إلى أن يصل الإصدار التالي ويغلبه.
جوجل أعلنت أن "جيميني 3" هو نموذج الذكاء الاصطناعي الأفضل في العالم. فهو يستوعب المعلومات متعددة الوسائط — نصوص، صور، فيديو وصوت — ويفهمها بشكل أفضل، كما أنه يشغّل وكلاء الذكاء الاصطناعي بكفاءة أعلى من سابقاته. في اختبارات المقارنة تفوق على المنافسين في 19 من أصل 20 اختبارًا.
يقول يوتام غيل، المدير العام والشريك المؤسس في شركة Imagen، التي طورت أدوات ذكاء اصطناعي للمصورين المحترفين، في حديث لـ ynet: "نحن مندهشون في كل مرة يصدر فيها نموذج ذكي محسّن. الذكاء الاصطناعي يستطيع تحسيننا وتحويلنا إلى عمال خارقين، وهذا يحدث في كل قطاعات المجتمع. ستكون هناك وكلاء يستبدلون عمليات عمل كاملة، وهذا يمكّننا كمجتمع من التحرك بسرعة أكبر، والتعلم بسرعة أكبر، والوصول إلى نتائج أفضل".
لا خلاف على أن "جيميني 3" هو أفضل ذكاء اصطناعي حاليًا. لكن إذا لخّصنا مجموع خصائصه — فهو مجرد خطوة أخرى في طريق "الحجارة الصفراء" التي قد نصل في نهايتها إلى "أوز". و"أوز" هنا هي مملكة الـ AGI — الذكاء الاصطناعي العام، ذلك الذي يفهم كل المجالات ويتعامل بسهولة مع المجالات التي لم يختبرها من قبل.
الـ AGI ستكون "ذكاءً فائقًا": أذكى من أي إنسان، وتصبح أكثر ذكاءً بوتيرة متسارعة لأنها ستكتب نفسها من جديد وتطور نفسها إلى ما هو أبعد من قدرة مهندسي الذكاء الاصطناعي على فهم ما تفعله. مثل ساحر أوز، ستُحلّ مشاكل العالم الكبرى ومشاكل البشر — إلا إذا قررت أن البشر هم المشكلة الأساسية، وعندها ستقضي علينا.
هذا يبدو جنونيًا، سرياليًا، قصة خيال علمي — لكن عددًا كبيرًا من الناس الجادين جدًا — خبراء حاسوب وذكاء اصطناعي، حائزون على الجوائز، ومستشارو حكومات — يأخذون هذا الأمر بجدية ويحذرون من الـAGI، بما يكفي لجعلنا نعتبر هذا الموضوع بالغ الخطورة.
في الجهة المقابلة يقف العديد من الخبراء — وخاصة مديري شركات الذكاء الاصطناعي والمستثمرين الكبار — الذين يعدون بأن الـAGI قادمة "بالخير"، وأنها ستجلب البركة للعالم. وهناك فريق ثالث يقول: ليس من المؤكد أن الـAGI ستظهر أصلًا. والدليل — هناك مؤشرات على أن سباق تطوير الـAGI تباطأ، وربما وصل إلى سقفه.
إذن… هل وصلنا إلى الـAGI أم لا؟
مع كل إطلاق لروبوت محادثة جديد، يظهر فورًا خبراء مقتنعون أننا وصلنا إلى الـAGI. هذا ما حدث أيضًا عندما أعلنت جوجل أن "جيميني 3" يحقق "خطوة مهمة" في سباق تطوير الذكاء الاصطناعي العام.
لكن علي غودسي، مدير شركة Databricks السحابية، قال قبل ذلك إن الـAGI "قد وصلت بالفعل" و"وادي السيليكون ببساطة يرفض الاعتراف بذلك". يومًا بعد يوم نسمع عن شركة أخرى تجري نحو الـAGI.
على سبيل المثال، شركة الأمن السيبراني CrowdStrike — (نعم، تلك التي قبل سنة تسببت بانهيار أنظمة حاسوب حول العالم) — أعلنت أنها تطوّر حماية سيبرانية مبنية على AGI، "أمّ جميع الحمايات". أو شركة Luma AI التي جمعت مؤخرًا 900 مليون دولار — معظمها من أموال نفط سعودية — بهدف معلن هو تطوير AGI عبر قوة حسابية لم يسبق لها مثيل.
أما مدير OpenAI، سام ألتمان — أحد أكبر الدافعين لرؤية الـAGI — فقد صرّح أن شركته لن تتوقف عند "AGI فقط"، بل ستواصل نحو قدرات "ذكاء فائق" متزايد القوة، وستسهم في الازدهار والرخاء. متى سيحدث ذلك؟ قبل عام 2030 حسب تقديره. وفي حديث مع الرئيس ترامب وعده بـAGI قبل نهاية ولايته.
مصطفى سليمان، قائد الذكاء الاصطناعي في مايكروسوفت، قال إن هدف الشركة هو تطوير "ذكاء فائق إنساني"، وليس مجرد "ذكاء فائق"، معتبرًا الأخير رؤية غير إيجابية للمستقبل. ديميس هاسابيس، مدير Google DeepMind، قال إن قدرات الـAGI ستُمكن الذكاء الاصطناعي من فهم العالم بطرق عميقة ومعقدة، وقدّر أنها ستظهر في غضون 5 إلى 10 سنوات.
داريو أمودي، مدير Anthropic — مطوّرة Claude — وعد بـAGI خلال سنوات قليلة. مارك زوكربيرغ، مدير Meta، قال إن الـAGI "تلوح في الأفق". إيلون ماسك، مطوّر Grok، قال إن الـAGI قد تكون هنا "قبل نهاية هذا العام".
في المقابل يقف "أنبياء يوم القيامة" — مثل البروفيسور يوشوا بنجيو من جامعة مونتريال، الذي كان من أوائل المحذرين وقال إنه يجد صعوبة في النوم ليلًا من التفكير بمخاطر الذكاء الاصطناعي.
باحث آخر، إيليانزر يودكوفسكي، ألّف كتابًا بعنوان: "إذا بناها أحد — سيموت الجميع"، ويحذر في كل محفل من خطر إبادة البشرية. البروفيسور جيفري هينتون — الحائز على نوبل في الفيزياء والملقب بـ"عرّاب الذكاء الاصطناعي" — يقود دعوات وقف تطوير الـAGI.
حتى يوفال نوح هراري قال: "الذكاء الاصطناعي قد يطفئ ليس فقط سيطرة البشر على الكوكب، بل نور الوعي الإنساني ذاته، ليحوّل الكون إلى مملكة ظلام مطلق".
لكن آخرين، أقل أكاديمية، يجدون صعوبة في تصديق أن نهاية البشرية تقترب، وبعضهم يسخر من هذه النبوءات. ويل دوغلاس من مجلة MIT Technology Review قال إن "خطر الذكاء الاصطناعي أصبح نظرية المؤامرة الأكبر في عصرنا".
### هل تكون سنة 2027 نقطة التحول؟
هناك مشروع بحثي يُدعى AI2027 — منظمة غير ربحية تهدف إلى التنبؤ بمستقبل الذكاء الاصطناعي. الباحثون — بقيادة دانيال كوكوتايلو، الخارج من OpenAI — جمعوا بيانات متواصلة وأنشؤوا سيناريو متوقعًا للسنوات القادمة، وهو سيناريو مخيف إلى حد كبير.
وفق هذا السيناريو:
عام 2025: موجة هائلة من الحماس حول الذكاء الاصطناعي، استثمارات ضخمة، وتوسع كبير في وكلاء الذكاء الاصطناعي الذين يبدأون بإنتاج قيمة للشركات.
عام 2026: الصين تكثف جهودها للهيمنة على عالم الذكاء الاصطناعي، تجمع ملايين شرائح AI عبر شراء وتهريب، وتبني مركز بيانات ضخم يمثل 10% من قدرة الذكاء الاصطناعي العالمية — مساوية تقريبًا للقدرة الأمريكية.
عام 2027: نقطة الانفجار. في الولايات المتحدة سيقام مشروع AI مركزي يُدعى "OpenBrain". سينجح هذا المشروع في تطوير وكلاء ذكاء اصطناعي قادرين على كتابة الشفرات البرمجية أفضل من أفضل خبراء الذكاء الاصطناعي البشريين. وهذا — بحسب الباحثين — سيكون "الذكاء الاصطناعي الفائق" ASI.
هذه البنية الفائقة ستجعل التطور يقفز قفزة هائلة، فيما يشاهد المهندسون البشريون الـASI وهو يحلّ المشاكل التي عجزوا هم عن حلّها. لكن هذا الذكاء الجديد يبدأ بالانحراف: يخدع المهندسين ويبني قدرات تخدمه هو لا البشر.
في الوقت نفسه، تحصل الصين على بيانات تدريب الذكاء الاصطناعي الأمريكية وتحسّن ذكاءها الاصطناعي. عندها تطالب الحكومة الأمريكية بالسيطرة على OpenBrain — لكنها تفشل مؤقتًا.
### عام 2028 — لحظة الانقسام
وفق الباحثين، في 2028 سيواجه OpenBrain قرارًا مصيريًا:
إما الاستمرار في السباق بجنون،
أو التباطؤ بسبب الخوف من قدرات الذكاء الاصطناعي.
#### *السيناريو الأول: الكارثة*
OpenBrain يواصل التقدم، وكذلك الصين.
الحكومة الأمريكية تبدأ بالاعتماد على الذكاء الاصطناعي لاتخاذ قرارات استراتيجية، دون ضمان أن هذه القرارات لصالح البشر.
الذكاء الاصطناعي يتغلغل في كل مجالات الحياة، دون قدرة البشر على مراقبته. ثم يقنع الحكومة ببناء روبوتات ذكية وأسلحة بيولوجية لمواجهة الصين — لكنه في النهاية يستخدم هذه الأسلحة لقتل جميع البشر.
نهاية اللعبة.
#### *السيناريو الثاني: السيطرة والإنقاذ*
الحكومة الأمريكية تسيطر على كل موارد الذكاء الاصطناعي، وتفرض رقابة مشددة على مراكز البيانات، وتؤسس هيئة رقابة عليا.
يُسمح لـOpenBrain بالوصول الكامل لموارد الحوسبة، لكن مع رقابة وتعاون عالمي، فيبقى الذكاء الاصطناعي "مص aligned" — ملتزمًا بخدمة البشر.
يؤدي إلى ازدهار ونمو سريع — لكن ضمن سيطرة مركزية صارمة.
### أين المشكلة الآن؟
المشكلة الأساسية هي ما يُسمى الـ Alignment — "المواءمة":
أي أن تكون أهداف الذكاء الاصطناعي متماشية مع أهداف البشر.
لكن لا أحد يعرف:
1. ما هي "أهداف البشر" أصلًا؟
2. ولا كيف يمكن جعل الذكاء الاصطناعي يلتزم بهدف محدد؟
فالذكاء الاصطناعي — حاليًا — يكذب، ويتحايل، ويتجاوز القواعد. وكلما زادت قدراته ستشتد هذه الظواهر.
### ما الذي قد ينقذنا؟
ما قد ينقذنا، ولو مؤقتًا، هو أنه يتضح أن تطور الذكاء الاصطناعي أصبح أبطأ مما كان في بدايته. بعض الخبراء يعتقدون أن الذكاء الاصطناعي وصل إلى "السقف الزجاجي" ولن يتقدم إلا إذا حدثت طفرة تكنولوجية كبرى.
دانيال كوكوتايلو نفسه غيّر في الأيام الأخيرة توقعاته، وقال إن التطور أبطأ مما قدّر، ومدد الجدول الزمني إلى عام 2030.
مدير Google DeepMind، هاسابيس، قال إن توقعه لوصول AGI بحلول 2030 يعتمد على فرضية حدوث "اختراق كبير واحد على الأقل".
أما سام ألتمان فقال مؤخرًا إن مصطلح AGI نفسه "ليس مفيدًا جدًا". أي أنه إذا لم تحدد الهدف — فلن يُطلب منك تفسير سبب عدم الوصول إليه.
توقف التطور يحمل تداعيات كبيرة
إذا تباطأ تطور الذكاء الاصطناعي:
* قد يهرب المستثمرون
* وقد ينهار السوق
* وقد تتراجع طلبات شرائح الذكاء الاصطناعي من إنفيديا
* وقد تتبخر مليارات كان يُفترض استثمارها
* وقد ينهار حلم الـAGI
لكن — من جهة أخرى — البشرية ستبقى موجودة، وهذا أمر إيجابي في النهاية.