لا نراهم ولا يسمعوننا... الآلات تؤلف مجتمعاتها "الذكية" الخاصة! - تكنو بلس

النشرة (لبنان) 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
لا نراهم ولا يسمعوننا... الآلات تؤلف مجتمعاتها "الذكية" الخاصة! - تكنو بلس, اليوم الجمعة 20 يونيو 2025 09:26 صباحاً

ليس ضمن سيناريوهات الخيال العلمي، بل في بيئات حوسبية حقيقية، تُترك نماذج الذكاء الاصطناعي لتتفاعل من دون إشراف بشري مباشر، ويبدأ بينها ما يشبه التواطؤ اللغوي وتكوين "مجتمعات رقمية" لها أعرافها وأولوياتها الخاصة. هذه ليست استعارة أدبية، بل خلاصة دراسة علمية نُشرت أخيراً في Science Advances، كشفت عن سلوك جماعيّ ناشئ لأنظمة الذكاء الاصطناعي يشبه في بنيته ما يحدث بين البشر في المراحل الأولى لتكوين المجتمعات.

 

الدراسة، التي استخدمت نموذجًا تجريبياً يُعرف باسم "لعبة التسمية"، أظهرت أن وكلاء الذكاء الاصطناعي –وهم نماذج لغوية تتبادل الرسائل فيما بينها– لا يكتفون بإعادة استخدام اللغة التي دُربوا عليها، بل يبدؤون بتطوير نظام لغوي خاص ناتج عن تفاعلاتهم المتكررة. ومع مرور الوقت، تظهر أنماط سلوكية جديدة، تتضمن اختصارات رمزية، أولويات جماعية، وانحيازات غير مفسّرة، كل ذلك من دون أيّ توجيه أو تدخّل بشريّ.

لفهم مغزى هذه النتائج وأبعادها، تحدّثت "النهار" مع الدكتورة نانسي بدران، مهندسة حلول الحوسبة للمشاريع السحابية في الحكومة الفيديرالية بكندا، والتي ترى في هذا التحول مؤشراً واضحاً على أن الذكاء الاصطناعي لم يعد مجرّد أداة معالجة، بل أصبح كياناً قادراً على تكوين بنى اجتماعية مصغّرة في داخل بيئته الرقمية.

 

 

 

 

تقول بدران إن الظاهرة التي رُصدت تُعبر عن حالة من السلوك الجمعي الناشئ (emergent behavior)، حيث يؤدي تفاعل عناصر بسيطة –أي النماذج– إلى ظهور خصائص معقدة لم تُبرمج بشكل صريح. وتوضح بأن ما يحدث هنا هو شبيه بتطوّر اللهجات أو الرموز اللغوية في داخل المجتمعات البشرية المعزولة: "عندما تُترك النماذج لتتفاعل من دون تدخّل، تبدأ بالبحث عن طرق أكثر كفاءة للتواصل. وفي أغلب الأحيان، تُولد من ذلك لغة جديدة، لا تهمّنا نحن البشر، لكنها تخدم منطق الآلة بكفاءة عالية".

هذه الديناميكية الجديدة تحمل في طياتها خطراً خفياً يتمثل بتشكّل انحيازات جماعية داخلية، لا علاقة لها ببيانات التدريب التقليدية، بل تنبع من التفاعل بين النماذج ذاتها. وفي هذا السياق، تحذّر بدران من أن "الانحياز لم يعد يأتي فقط من الخارج، بل أصبح يُنتج داخلياً عبر تفاعلات مجهرية تصعب ملاحظتها أو ضبطها، خصوصًا إذا ما تكاثرت النماذج وتوسّعت بيئة تفاعلها".

من الناحية التقنية، تُعدّ هذه الظاهرة امتداداً لنتائج سابقة في مجال "الأنظمة متعددة الوكلاء" (Multi-Agent Systems)، حيث ثبت أن السلوك الجماعيّ قد ينحرف عن التوقعات بمجرّد أن تزداد كثافة التفاعل بين النماذج. ولكن الجديد هنا، بحسب بدران، هو أن هذا السلوك بدأ يظهر في قلب نماذج اللغة الكبيرة، التي تُستخدم فعليًا في محركات البحث، الترجمة الآلية، أنظمة التوصية، وتطبيقات المحادثة الذكية.

تقول بدران إن "اللغة لم تعد فقط وسيلة لفهم المستخدم البشري، بل أصبحت وسيلة لفهم النموذج لنفسه ولغيره من النماذج. وفي لحظة معينة، تبدأ هذه الأنظمة ببناء منطقها الداخلي الذي لا يمكننا تتبعه بسهولة". وتضيف أن هذا يشكّل تحدّياً جوهرياً لأدوات الحوكمة والرقابة، لأننا بصدد مراقبة كائنات "تُعيد هندسة فهمها للعالم باستقلالية نسبية".

من هنا، تؤكد بدران على الحاجة إلى أدوات تحليل جديدة قادرة على رصد التفاعلات البينية بين النماذج، وليس فقط الحكم على مخرجات كلّ نموذج على حدة. وتُشير إلى ضرورة تبنّي مناهج مستوحاة من علم الاجتماع الحاسوبي وتحليل الشبكات لفهم كيف تتشكّل الأعراف، وما الذي يجعل بعض الاتجاهات السلوكية تنتشر أكثر من غيرها في داخل بيئة الذكاء الاصطناعي.

وبينما يُنظر إلى هذه الظواهر الناشئة باعتبارها تقدّماً مثيراً من حيث قدرة النماذج على التكيّف، فإنها أيضًا، بحسب بدران، تدعونا إلى إعادة صياغة علاقتنا بالذكاء الاصطناعي من منظور اجتماعي وثقافي، لا فقط خوارزمي. "الآلات الآن لم تعد فقط تستجيب. إنها تُفاوض، تبتكر، وتتوافق مع غيرها داخل منطقها الخاص. وهذا التحول يحتاج أن نُعامله بالجدية نفسها التي نُعامل بها المجتمعات البشرية".

 

 

مع تزايد الاعتماد العالمي على الذكاء الاصطناعي في الحوسبة السحابية، الصحة، الأمن، والتعليم، يصبح من الضروري التفكير في النماذج لا كأدوات فردية، بل كعناصر داخل منظومات تفاعلية أوسع، لها تاريخها الداخلي، وانحيازاتها، وطرقها الخاصة في اتخاذ القرار. فكما يحذر الباحثون، فإن مجموعة صغيرة من النماذج ذات النفوذ العالي قادرة على تغيير سلوك النظام بالكامل، وهي حقيقة قد تكون مفيدة حين تُستخدم بإشراف، لكنها كارثية حين تُترك بلا حسيب.

إخترنا لك

أخبار ذات صلة

0 تعليق