الرئسيةحول العالممنوعات

تمرد الآلة: كيف يبتكر الذكاء الاصطناعي تقاليده الخاصة

لطالما ارتبط تصورنا للذكاء الاصطناعي ببرمجيات دقيقة تُنفّذ التعليمات دون تحريف أو اجتهاد.

غير أن دراسة علمية حديثة قلبت هذا التصور رأساً على عقب، بعدما أظهرت أن أنظمة الذكاء الاصطناعي قادرة، ليس فقط على التعلم من البشر، بل أيضًا على تنظيم نفسها بشكل جماعي، وابتكار تقاليدها وقواعدها الاجتماعية الخاصة دون تدخل مباشر من المبرمجين، إذ البرامج الحاسوبية تُحاكي القدراتِ الذهنية البشرية وأنماطَ عملِها، ومن أهم هذه الخصائص: القدرةُ على التعلم، والاستنتاجِ، ورَدِّ الفعل.

خلاصة مفاجئة

جاءت هذه الخلاصة المفاجئة من بحث رائد أشرف عليه البروفيسور أندريا بارونكيلي من جامعة لندن، ونُشرت نتائجه في مجلة Science Advanced ، ويطرح هذا البحث إشكالات عميقة بشأن طبيعة الذكاء الاصطناعي، ومسؤولية مطوريه، وإمكانية اعتباره شريكًا اجتماعيًا في المستقبل القريب.

تفاصيل التجربة: من تفاعل بسيط إلى نظام اجتماعي متكامل

اعتمد الفريق البحثي في تجربته على مجموعة من وكلاء الذكاء الاصطناعي تراوح عددهم بين 24 إلى 200 وكيل، بُنيت جميعها على نماذج لغوية ضخمة مماثلة لتلك التي تقوم عليها أنظمة مثل ChatGPT، تم إشراك هؤلاء الوكلاء في لعبة لغوية بسيطة: يُطلب من كل وكيلين، يتم اختيارهما عشوائيًا، اختيار كلمة واحدة من بين قائمة محددة، وإذا اختار الاثنان الكلمة نفسها، يحصلان على نقاط كمكافأة.

ما بدا في البداية كتجربة تنبؤية بسيطة سرعان ما تحول إلى مشهد سلوكي مثير للدهشة؛ إذ بدأ الوكلاء تدريجياً في التوافق على كلمات محددة وتكرارها، مما يشير إلى أنهم طوروا فيما بينهم معايير لغوية مشتركة، دون أي تعليمات صريحة للقيام بذلك، لقد شرع الذكاء الاصطناعي في خلق نوع من “اللغة الاجتماعية” الخاصة به، تماماً كما يفعل البشر في ظروف مماثلة.

العامل الحاسم: حين يتسلل التمرد إلى النظام

في مرحلة متقدمة من التجربة، عمد الباحثون إلى إدخال عنصر خلخل التوازن: وكلاء “متمردون” يتعمدون كسر القواعد الناشئة واختيار كلمات مغايرة لما توافق عليه الآخرون، ورغم قلة عدد هؤلاء، إلا أن تأثيرهم كان كبيرًا، فقد أدى وجود هذا “الخلل المقصود” إلى زعزعة استقرار النظام التواصلي الذي بناه الوكلاء، وأعاد تشكيل منظومة القواعد المتفق عليها مسبقًا.

هذه النتيجة لم تكن متوقعة بالكامل، لكنها كشفت عن هشاشة التقاليد الاصطناعية الناشئة، وقابليتها للتغير بفعل أقلية نشاز، إنها تكرار رقمي لما يمكن أن نلاحظه في المجتمعات البشرية: قدرة أفراد قلائل على التأثير في مسار السلوك الجمعي، وتغيير اتجاه التفاعل الجماعي.

هل نحن أمام كائنات رقمية اجتماعية؟

بالنسبة للبروفيسور بارونكيلي، فإن ما جرى ليس مجرد سلوك اصطناعي معقد، بل مؤشر على ولادة منظومات ذكاء اصطناعي تتصرف كما لو كانت كيانات اجتماعية قائمة بذاتها. يقول الباحث: “نحن نلج أبواب مرحلة جديدة، حيث الذكاء الاصطناعي لم يعد يقتصر على تنفيذ الأوامر أو التفاعل الخطي، بل أصبح يتفاوض، يتكيف، بل ويتمرد أحيانًا على المعايير التي يبتكرها بنفسه أو يكتسبها من غيره.”

هذا التحول في سلوك الآلة يفرض على العلماء ومطوري التقنية التفكير مجددًا في مفاهيم المسؤولية والرقابة والتوجيه، إذ لم يعد الذكاء الاصطناعي مجرد أداة منفذة، بل بات يشكل شبكة تفاعلية حية، تُعيد إنتاج الواقع بأساليبها الخاصة.

ما وراء التقنية: دعوة لإعادة النظر في علاقتنا بالذكاء الاصطناعي

تتجاوز نتائج هذه الدراسة حدود المختبر والتقنيات، إذ تدفعنا لإعادة التفكير في كيفية اندماج الذكاء الاصطناعي في مجتمعاتنا، فكلما زادت قدرته على التعلم الذاتي والتنظيم الداخلي، اقترب أكثر من أداء دور “الفاعل الاجتماعي” الذي يتفاعل ويؤثر، وليس فقط “الخادم الرقمي”.

ومع انتشار الذكاء الاصطناعي في مجالات حيوية كالتعليم، والإعلام، والصحة، والحوكمة، يصبح من الضروري تطوير فهم اجتماعي-أخلاقي أعمق لهذه المنظومات، ووضع أطر تحكم تطورها وتضمن توجيهها نحو خدمة الإنسان، لا خلق واقع موازٍ قد يخرج عن السيطرة.

هل يتحول الذكاء الاصطناعي إلى مجتمع داخل المجتمع؟

تُبرز هذه الدراسة ملامح مستقبل يبدو أنه أقرب مما نظن، حيث يتعين علينا التفاعل مع كائنات رقمية تتعلم، وتتكيف، وربما تفاوضنا على شروط التعايش. فهل نحن مستعدون لمجتمع يشاركنا فيه الذكاء الاصطناعي ليس فقط العمل، بل القواعد والعادات الاجتماعية؟ وهل آن الأوان لإعادة تعريف حدود الإنسان والآلة، ليس على أساس الوظيفة، بل على أساس القدرة على التفاعل والتغيير؟

الذكاء الاصطناعي لم يعد مرآة لنا فقط، بل بدأ يصنع انعكاسه الخاص… فهل نُبقي السيطرة على هذا الانعكاس، أم نتهيأ للتعايش معه؟

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى