خشية من أن الإفراط في استخدام "تشات-GPT" قد يزيد الشعور بالوحدة

تقارير 
​​​​​​​
ترجمة حضارات 

أظهر فحص أجرته شركة OpenAI وجود علاقة بين الاستخدام المكثّف للدردشة وبين الشعور بالوحدة وتطور تعلق عاطفي لدى المستخدمين المفرطين.

خلال شهر مارس من هذا العام، وقبل أسبوع من امتلاء الشبكات الاجتماعية بصور الأنيمي التي تم توليدها بواسطة "تشات-GPT"، نشرت الشركة – مطوّرة الروبوت – مقالتين يبدو أنهما مرّتا دون انتباه. المقالتان، اللتان كُتبتا بالتعاون مع باحثين من معهد ماساتشوستس للتكنولوجيا (MIT) ولم تخضعا بعد لمراجعة أكاديمية مستقلة، تناولتا التأثيرات العاطفية لاستخدام الروبوت، خصوصًا لدى المستخدمين الذين يقضون وقتًا طويلاً في التواصل معه.

أحد البحثين – وهو ملف PDF – كان بمثابة "بحث ميداني"، إذ حلّل محادثات يومية عادية بين المستخدمين والروبوت. وقد جرى تحليل نحو ثلاثة ملايين محادثة باستخدام آلية تضمن بقاء هوية المستخدمين ومحتوى المحادثات مخفية عن الباحثين. إضافة إلى ذلك، طُلب من نحو 4,000 مستخدم تعبئة استبيان حول حالتهم العاطفية. أما البحث الثاني فكان تجربة محكمة شارك فيها نحو ألف شخص، طُلب منهم التحدث مع الروبوت يوميًا لمدة شهر حول مواضيع شخصية وغير شخصية وحرة، مع الإبلاغ في الوقت ذاته عن حالتهم العاطفية. وكان الهدف أن يُكمل أحد البحثين الآخر: الأول يفحص الاستخدام الاعتيادي كما يظهر في المحادثات اليومية، والثاني يختبر تحت ظروف محكومة تأثير أوضاع مختلفة.

مجالات الفحص

فحص الباحثون تأثير المحادثات على أربعة مجالات تتعلق بالرفاه النفسي للمستخدمين:

  • شعور الوحدة
  • مستوى المشاركة الاجتماعية مع العائلة والأصدقاء
  • تطور التعلق العاطفي بالروبوت
  • الاستخدام الإشكالي للروبوت

ويُعرَّف "الاستخدام الإشكالي" وفق مقياس يشمل، ضمن أمور أخرى، ظهور أعراض انسحاب عند غياب الوصول إلى الروبوت، فقدان السيطرة على كمية الاستخدام، وتغيرات في المزاج بسبب استخدامه. كما فحص الباحثون الفروق بين استخدام النسخة النصية من الدردشة، والنسخة الصوتية الحيادية، والنسخة الصوتية المتقدمة التي يتضمن صوتها نبرات عاطفية.

تحذير استخدام

أظهرت نتائج البحثين وجود علاقة بين الاستخدام المطوّل للروبوت وبين زيادة التعلق العاطفي، انخفاض المشاركة الاجتماعية، وارتفاع الاستخدام الإشكالي لـ"تشات-GPT"، كما ينعكس ذلك من تقارير المستخدمين أنفسهم.

ركز الباحثون على الأشخاص الذين يقضون وقتًا طويلاً جدًا في التحدث مع النسخة الصوتية المتقدمة. وأظهروا أن هؤلاء المستخدمين يميلون أكثر من غيرهم إلى اعتبار الروبوت "صديقًا". كما أفاد كثير منهم بأنهم يشعرون براحة أكبر عند التحدث إلى الروبوت مقارنة بالتواصل وجهًا لوجه مع الآخرين، وبأنهم سيصابون بالإحباط إذا طرأت تغييرات على خصائصه.

حلّل الباحثون أيضًا محتوى المحادثات، وفحصوا أنماط سلوك المستخدمين، مثل أولئك الذين طلبوا دعمًا عاطفيًا أو أظهروا مودة تجاه الروبوت. كما فحصوا تأثير أسلوب حديث الروبوت: هل يبدي اهتمامًا بالمستخدم؟ هل يطرح أسئلة شخصية؟ هل ينادي المستخدم بأسماء تدليل؟ وهو ما يوحي بأن الجانب العاطفي في المحادثة لا ينشأ فقط من المستخدمين، بل الذكاء الاصطناعي نفسه يشارك فيه بشكل فعّال.

أما نتائج الباحثين بشأن شكل التواصل – نصي، صوتي حيادي، أو صوتي عاطفي – فكانت مختلطة. فقد تبيّن أن الاستخدام القصير للصوت كان مرتبطًا برفاه نفسي أعلى للمستخدمين مقارنة بمن استخدموا النسخة النصية. لكن في الاستخدام المطوّل انعكست الصورة. ويبدو أن الحالة النفسية الأولية للمستخدم تلعب دورًا أيضًا: فالمستخدمون الذين أبلغوا منذ البداية عن شعور بالوحدة سجّلوا مستويات رفاه نفسي أدنى في نهاية التجربة المحكمة.

مع القوة تأتي المسؤولية

يشكّل هذان البحثان خطوات أولية لتقييم التأثير النفسي لاستخدام روبوتات الذكاء الاصطناعي. تُظهر البيانات وجود علاقة بين حالة المستخدمين وطريقة استخدامهم للروبوت، لكنها لا تثبت وجود علاقة سببية. كما أن جميع البيانات جُمعت من مستخدمين بالغين، ما يعني أن التأثيرات على المراهقين تتطلب بحثًا إضافيًا. واستمرت التجربة المحكمة شهرًا واحدًا فقط، في حين أن "تشات-GPT" ومنصات مماثلة ترافقنا منذ أكثر من عامين، ولا يوجد ما يشير إلى أنها ستختفي قريبًا. لذلك ستكون هناك حاجة إلى أبحاث أخرى تفحص تأثيرات الاستخدام الطويل المدى، وكذلك التأثيرات المحتملة على المدى البعيد.

وأشار الباحثون في تقاريرهم إلى أن السلوكيات المقلقة ظهرت فقط لدى مجموعة صغيرة وغير شائعة من المستخدمين – أو بعبارتهم التي ترفع المسؤولية عن الشركة: "نشاط غير متناسب لعدد قليل من المستخدمين."

سواء كان ذلك للأفضل أو للأسوأ، تمتلك شركات مثل OpenAI، التي لديها نحو 400 مليون مستخدم أسبوعيًا، تأثيرًا كبيرًا على المجتمع البشري. ويضع الوصول اليومي إلى هذا العدد الهائل من المستخدمين مسؤولية على عاتقها لتعزيز الاستخدام الآمن للروبوتات، تحديد خطوط توجيهية لنمط محادثة يصبّ في مصلحة المستخدمين، وتبنّي سياسات لرصد السلوكيات الإشكالية. وحتى يحدث ذلك، لا ينبغي لرسوم الأنيمي اللطيفة أن تُبعد الانتباه عن الآثار المقلقة التي قد تنتج عن استخدام تقنيات الذكاء الاصطناعي.

جميع الحقوق محفوظة لـمركز حضارات للدراسات السياسية والإستراتيجية © 2025