الذكاء الاصطناعي يهدد البشرية
يديعوت أحرونوت - البرفسور يوفال هراري
ترجمــــة حضــــارات
المخاوف من الذكاء الاصطناعي (AI) تطارد البشرية منذ مطلع عصر الكمبيوتر، ركزت هذه المخاوف حتى الآن على قدرات الآلات الذكية على استخدام الوسائل المادية لقتل الناس أو استعبادهم أو استبدالهم.
لكن أدوات الذكاء الاصطناعي التي ظهرت في السنوات الأخيرة تهدد بقاء الثقافة البشرية من تجاه غير متوقع.
طورت أدوات مثل ChatGPT قدرات غير عادية لفهم اللغة وإنشائها باستخدام الكلمات أو الأصوات أو الصور، لقد أتقن الذكاء الاصطناعي اللغة، وبالتالي كسر نظام تشغيل الثقافة البشرية.
اللغة هي المادة التي تتكون منها الثقافة البشرية كلها تقريبًا، ومنها حقوق الإنسان على سبيل المثال، هذه ليست حقيقة بيولوجية، ولم يتم ترميزها في حمضنا النووي.
حقوق الإنسان هي ابتكار ثقافي، شيء أنشأناه مع اللغة، من خلال سرد القصص وقواعد الكتابة.
الآلهة ليست حقيقة بيولوجية أو مادية، هم إبداع ثقافي، الآلهة شيء خلقناه بمساعدة اللغة، من خلال اختراع الأساطير وكتابة الكتب المقدسة.
المال هو أيضا إبداع ثقافي، الأوراق النقدية هي مجرد قطع ورقية ملونة، واليوم أكثر من 90 % من الأموال في العالم ليست حتى أوراقًا ورقية، إنها مجرد معلومات رقمية تمر بين أجهزة الكمبيوتر.
ما يعطي قيمة للمال هو فقط القصص التي يرويها لنا المصرفيون ووزراء المالية ورجال الأعمال، لم يخلق Sam Bankman-Fried و Elizabeth Holmes و Bernie Madoff أي شيء ذي قيمة حقيقية، لكن لسوء الحظ كانوا جميعًا رواة قصص موهوبين بشكل استثنائي.
ماذا سيحدث بمجرد أن يكون الذكاء غير البشري أفضل من الإنسان العادي في سرد القصص وتأليف الألحان ورسم الصور وكتابة القوانين، وسيعرف أيضًا كيف يستغل ضعف وإدمان الجنس البشري أفضل من أي إنسان؟
عندما نفكر في ChatGPT وأدوات الذكاء الاصطناعي الجديدة الأخرى، فإننا غالبًا ما ننجذب إلى الأمثلة، مثل أن يسمح الأطفال للذكاء الاصطناعي بأداء واجباتهم المدرسية نيابةً عنهم.
الجنة هناك! ماذا سيحدث للمدارس عندما يفعل الأطفال ذلك؟ لكن هذا السؤال يخطئ الصورة الكبيرة.
ننسى الواجب المنزلي، بدلاً من ذلك، فكروا في السباق الرئاسي الأمريكي في عام 2024، وحاولوا تخيل تأثير الذكاء الاصطناعي القادر على توليد قدر غير محدود من المحتوى السياسي والأخبار المزيفة وحتى الكتب المقدسة للطوائف الجديدة.
في السنوات الأخيرة، كانت إحدى أكثر الظواهر إثارة وخوفًا في السياسة الأمريكية هي ظهور الطائفة المتطرفة كيانون (QAnon)، التي تمكنت من غسل دماغ ملايين الأمريكيين وحتى بعض أعضاء الكونجرس.
تشكلت هذه العبادة حول الرسائل المجهولة عبر الإنترنت، والمعروفة باسم Q Drops.
يجمع أتباع العبادة هذه الرسائل ويعبدونها ويفسرونها على أنها نص مقدس، ينسج نظرية مؤامرة بعيدة المنال، وفقًا لها يحكم اليهود والمولعون بالأطفال وعبادة الشيطان العالم ويحاولون تدمير البشرية.
بقدر ما نعلم، تم إنشاء جميع "النقاط الرئيسية" السابقة بواسطة البشر، ولم يتم توزيعها إلا بواسطة الروبوتات غير البشرية، لكن سرعان ما قد نرى الطوائف الأولى في التاريخ التي كُتبت نصوصها الموقرة بواسطة ذكاء غير بشري.
زعمت الأديان عبر التاريخ أن كتبنا المقدسة جاءت من مصدر غير بشري، وقريبا قد يكون هذا حقيقة واقعة.
على مستوى أكثر واقعية، قد نجد أنفسنا قريبًا نجري مناقشات طويلة عبر الإنترنت حول المحكمة العليا، أو تغير المناخ، أو الغزو الروسي لأوكرانيا، مع كيانات نعتقد أنها بشر - لكنها في الواقع ذكاء اصطناعي.
من غير المجدي تمامًا بالنسبة لنا قضاء بعض الوقت في محاولة تغيير آراء Bot المعلنة.
ولكن كلما طالت مدة المحادثة، كان الروبوت قادرًا على التعرف علينا بشكل أفضل، وتكييف كلماته مع شخصيتنا وقصة حياتنا، بحيث يكون له فرصة جيدة جدًا للتأثير علينا.
من خلال إتقانه للغة، سيتمكن الذكاء الاصطناعي من تكوين صداقات حميمة مع الناس، واستخدام قوة العلاقة الحميمة لتغيير آرائنا ورؤيتنا للعالم.
بالطبع لا يوجد دليل على أن الذكاء الاصطناعي يطور وعيًا أو مشاعر خاصة به. لكن الذكاء الاصطناعي لا يحتاج إلى مشاعر خاصة به لتزييف العلاقة الحميمة مع البشر.
يكفي أن يكون الذكاء الاصطناعي قادراً على جعلنا نشعر بمشاعر تجاهه. في يونيو 2022، ادعى مهندس في Google يُدعى بلاك ليموين أن روبوت محادثة يسمى LaMDA، والذي كان يعمل عليه، قد طور وعيه، أدى الادعاء المثير للجدل إلى إقالة ليموين.
الشيء الأكثر إثارة للاهتمام في هذه الحالة لم يكن ادعاء ليموين، والذي يبدو أنه خطأ، المثير للاهتمام هو أن ليموين كان على استعداد للتضحية بوظيفته المرموقة من أجل chatbot.
إذا كان بإمكان الذكاء الاصطناعي التأثير على الأشخاص لتعريض وظائفهم للخطر، فما الذي يمكن أن يجعلنا نفعله أيضًا؟.
في المعركة السياسية على العقول والقلوب، تعتبر العلاقة الحميمة هي السلاح الأكثر فاعلية، والذكاء الاصطناعي الآن لديه القدرة على إنتاج علاقة حميمة على نطاق صناعي، مع مئات الملايين من الناس.
نعلم جميعًا أنه على مدار العقد الماضي، أصبحت وسائل التواصل الاجتماعي ساحة معركة للسيطرة على انتباه الإنسان، لكن مع الجيل الجديد من الذكاء الاصطناعي، تتحول جبهة المعركة من الاهتمام إلى العلاقة الحميمة.
ماذا سيحدث للمجتمع البشري وعلم النفس البشري إذا تقاتلت أدوات الذكاء الاصطناعي بعضها البعض لتزييف العلاقة الحميمة مع البشر، واستخدمت تلك العلاقة العاطفية لإقناعنا بشراء منتجات معينة أو التصويت لبعض السياسيين؟
حتى بدون تزوير العلاقة العاطفية، سيكون للذكاء الاصطناعي تأثير كبير على آرائنا ووجهات نظرنا للعالم.
قد يستخدم الناس الذكاء الاصطناعي كنوع من الأنبياء ذوو العلم الكلي، لا عجب أن Google خائفة: لماذا تهتم بالبحث عن شيء ما على Google، بينما يمكنني فقط أن أسأل النبي (الذكاء الاصطناعي)؟ يجب أيضًا أن ينزعج صناع الأخبار والإعلان.
لماذا أقرأ جريدة وأستطيع أن أسأل النبي ما الجديد؟ وما هو الغرض من الإعلانات، وأنا أسأل النبي ماذا أشتري؟
وحتى هذه السيناريوهات لا تكشف الصورة الكاملة حقًا، قد تنهي القدرات الجديدة للذكاء الاصطناعي تاريخ البشرية،
ليس التاريخ بأكمله، ولكن فقط الفترة التي هيمنت فيها البشرية على التاريخ.
التاريخ هو العلاقة بين علم الأحياء والثقافة، بين احتياجاتنا البيولوجية لأشياء مثل الطعام والجنس، وبين إبداعاتنا الثقافية مثل الأديان والقوانين، التاريخ هو العلاقة بين القوانين والأديان والطعام والجنس.
ماذا سيحدث لمسار التاريخ عندما تسيطر أدوات الذكاء الاصطناعي على الثقافة وتبدأ في إنتاج القصص والألحان والقوانين والأديان؟ ساعدت الأدوات السابقة، مثل الطباعة والراديو، في نشر الأفكار الثقافية للبشر، لكنها لم تخلق أبدًا أفكارًا ثقافية جديدة خاصة بهم.
يختلف الذكاء الاصطناعي جوهريًا عن المطبوعات أو الراديو، يمكن للذكاء الاصطناعي أن يخلق أفكارًا جديدة تمامًا، وثقافة جديدة تمامًا.
في البداية، من المرجح أن يقلد الذكاء الاصطناعي النماذج الأولية البشرية التي تم تدريبه عليها، ولكن مع مرور كل عام، سيذهب الذكاء الاصطناعي إلى أماكن لم يذهب إليها أي إنسان من قبل.
منذ آلاف السنين عاش البشر داخل أحلام البشر الآخرين كنا نؤمن بالآلهة، واحتضننا مُثُل الجمال، وكافحنا من أجل رؤى خلقت في خيال الأنبياء والشعراء والسياسيين من لحم ودم.
في غضون سنوات ليست كثيرة، قد نجد أنفسنا نعيش في أحلام أغريبة، بدأ الخوف من الذكاء الاصطناعي يرعب الجنس البشري منذ بضعة أجيال فقط، لكن منذ آلاف السنين قبل ذلك، كان البشر يطاردهم بالفعل خوف أعمق بكثير.
لطالما كان البشر على دراية بقوة القصص والصور في خداعنا وخلق الأوهام؛ لذلك، منذ العصور القديمة، يخشى البشر الوقوع في شرك عالم من الأوهام.
في القرن السابع عشر، خشي الفيلسوف رينيه ديكارت أن يحاصره شيطان خبيث في عالم من الأوهام، ويخلق كل ما يراه ويسمعه.
في اليونان القديمة، روى أفلاطون "مثل الكهف" الشهير، يصف هذا المثل مجموعة من الأشخاص المقيدين بالسلاسل داخل كهف طوال حياتهم، ويواجهون جدارًا فارغًا.
أمام الشاشة يتم عرض الصور الظلية على هذه الشاشة، والسجناء المقيدين بالسلاسل في الكهف يخلطون بين الصور الظلية على الشاشة والواقع.
في الهند القديمة، اعتقد المفكرون البوذيون والهندوس أن جميع البشر محاصرون في "المايا" أي عالم الأوهام.
أوضح بوذا أن ما نشير إليه "بالواقع" غالبًا ما يكون مجرد خيال في أذهاننا، قد يشن الناس حروباً كاملة، ويقتلون الآخرين، ويكونون مستعدين للقتل لأنفسهم، بسبب أوهامهم أو وقوعهم في الضلال.
ثورة الذكاء الاصطناعي تجلبنا وجهاً لوجه مع شيطان ديكارت، مع كهف أفلاطون، مع المايا، إذا لم نتوخى الحذر، فقد نكون محاصرين خلف ستار من الأوهام، التي لن نتمكن بعد الآن من تمزيقها، وقد لا نتمكن حتى من معرفة وجودها.
بالطبع، يمكن أيضًا استخدام القوة الهائلة للذكاء الاصطناعي لأغراض جيدة، لا داعي للتحدث عنه هنا، لأن الأشخاص الذين يطورون الذكاء الاصطناعي يتحدثون عنه بما فيه الكفاية.
يتمثل دور المؤرخين والفلاسفة في الإشارة إلى مخاطر هذه التكنولوجيا، يمكن أن يساعدنا الذكاء الاصطناعي بالتأكيد بطرق لا حصر لها، من إيجاد علاجات جديدة للسرطان لاكتشاف حلول للأزمة البيئية.
السؤال المطروح أمامنا هو كيف نتأكد من أن هذه التكنولوجيا القوية تستخدم للخير وليس للشر، للقيام بذلك يجب علينا أولاً فهم القدرات الحقيقية للأدوات الجديدة.
منذ عام 1945، عرفنا أن التكنولوجيا النووية يمكن أن تنتج طاقة رخيصة لصالح البشر - ولكن يمكنها أيضًا تدمير البشرية جسديًا.
لهذا السبب قمنا بإعادة تشكيل النظام الدولي بأكمله لحماية البشرية، وللتأكد من أن التكنولوجيا النووية تستخدم في الأساس من أجل الخير، الآن علينا التعامل مع سلاح جديد للدمار الشامل، يمكن أن يدمر عالمنا العقلي والاجتماعي.
لا يزال بإمكاننا وضع قواعد السلامة لتطوير واستخدام الذكاء الاصطناعي، لكن يجب علينا التصرف بسرعة.
بينما لا تستطيع القنابل الذرية إنتاج قنابل ذرية أكثر قوة، يمكن للذكاء الاصطناعي إنتاج ذكاء اصطناعي أقوى.
الخطوة الأساسية الأولى التي يجب أن نتخذها هي طلب اختبارات سلامة صارمة قبل طرح أي أدوات ذكاء اصطناعي جديدة في المجال العام.
تمامًا كما لا يمكن لشركة الأدوية البدء في بيع عقاقير جديدة قبل إجراء اختبارات سلامة صارمة، فلا يمكن لشركات التكنولوجيا إصدار أدوات قوية للذكاء الاصطناعي قبل التأكد من سلامتها.
ألن يتسبب التباطؤ في إطلاق الذكاء الاصطناعي في المجال العام في تخلف الديمقراطيات عن الأنظمة الديكتاتورية الجامحة؟ العكس تماما، إن الإطلاق غير المنضبط للذكاء الاصطناعي في المجال العام سيخلق فوضى اجتماعية.
سوف يفيد الديكتاتوريين، ويدمر ديمقراطيات العالم. الدكتاتورية هي الحالة التي يملي فيها عامل واحد كل شيء حسب إرادته، من ناحية أخرى، الديمقراطية هي محادثة بين العديد من الأطراف، لكن المحادثات تحكمها اللغة.
بمجرد أن يكسر الذكاء الاصطناعي اللغة، يمكنه تدمير قدرة البشر على إجراء محادثات هادفة، وبالتالي تدمير الديمقراطية.
لقد واجهنا للتو ذكاءً فضائيًا هنا على الأرض، لا نعرف الكثير عن هذا الذكاء، إلا أنه يمكن أن يدمر ثقافتنا.
يجب أن نوقف الانتشار غير المسؤول للذكاء الاصطناعي في المجال العام، وأن نضع قوانين له قبل أن يضع القوانين لنا.
القاعدة الأولى التي أود أن أقترحها هي أنه عندما يتحدث الذكاء الاصطناعي مع البشر، يجب أن يكشف لنا أنه ذكاء اصطناعي.
إذا كنت أجري محادثة مع شخص ما، ولا يمكنني معرفة ما إذا كان ذكاءً بشريًا أم اصطناعيًا، فهذه نهاية الديمقراطية.
تم إنشاء هذا النص من قبل شخص بشري... أو ربما لا؟