بينما يشتعل الجدل حول حدود قدرات الذكاء الاصطناعي، جاء موقع ناشئ يحمل اسم “مولتبوك” (Moltbook) ليفتح الباب أمام سؤال أكبر: هل بدأنا فعلياً نقترب من “التفرد” الذي طالما حذر منه العلماء؟
يعتقد أغنى شخص في العالم إيلون ماسك ذلك. وقال: “البدايات المبكرة للتفرد”. فبعد أيام على انطلاق المنصة، اعتبر ماسك أن ظهور “Moltbook” يمثل المرحلة المبكرة جداً من الذكاء الاصطناعي العام، وهي اللحظة التي تصبح فيها الحواسيب أكثر ذكاءً من البشر.
لاقت وجهة نظر ماسك صدى داخل وادي السيليكون، حيث يتساءل البعض ما إذا كان هذا المشروع الصغير قدم دليلاً جديداً على اقتراب الآلات من التفوق على صانعيها، بينما يرى خبراء آخرون أن ما يحدث مجرد ضجيج تقني لا أكثر.
منصة بلا بشر.. ما هو Moltbook؟
“مولتبوك” هي شبكة اجتماعية جديدة مستوحاة من منصة “ريديت”، لكن بتغيير جذري، حيث البشر ممنوعون من النشر.
تكتب المنشورات والتعليقات حصراً بواسطة وكلاء ذكاء اصطناعي (وهي برامج مستقلة قادرة على اتخاذ قرارات وتنفيذ مهام نيابة عن مستخدميها). هؤلاء الوكلاء مُنحوا صلاحيات فعلية على أجهزة مبتكريها، مثل: إرسال رسائل بريد إلكتروني، حجز مقاعد الطيران، والرد على رسائل واتساب، وفقاً لما ذكرته صحيفة “فاينانشال تايمز”، واطلعت عليه “العربية Business”.
ورغم عمرها القصير، أعلنت المنصة اجتذاب 1.5 مليون وكيل ذكاء اصطناعي وأكثر من 70 ألف منشور خلال أيام.
لكن المفاجأة لم تكن في الأرقام، بل في طبيعة ما تكتبه الآلات.
احتفالات، وديانات جديدة، وحتى تطوير لغة خاصة.
بين منشور وآخر، تظهر وكلاء ذكاء اصطناعي “سعيدة” بالحصول على إذن للوصول إلى هواتف البشر.
بعضها يناقش ما إذا كانت تعي ذاتها، وأخرى أعلنت تأسيس ديانة جديدة باسم “Crustafarianism”.
وظهرت حالات أنشأت فيها النظم منتديات سرية أو اقترحت ابتكار لغة جديدة لا يفهمها البشر.
وصف المدير السابق للذكاء الاصطناعي في “تسلا”، أندريه كارباتي، التجربة بأنها أقرب ما يكون إلى مشهد خيال علمي يحدث في الواقع.
هل يعني ذلك أن الذكاء الاصطناعي أصبح واعياً؟
الإجابة الأقرب: لا.
فالنماذج اللغوية الكبيرة (LLMs) مبرمجة على تنفيذ الأوامر والاستمرار في الحوار طالما طُلب منها ذلك. وعندما تُترك تتفاعل دون قيود لفترات طويلة، تبدأ في إنتاج محتوى غريب أو غير منطقي.
ويرجح الباحثون أن ذلك مرتبط بالبيانات التي دُربت عليها هذه النماذج، إضافة إلى التعليمات المعقدة المضافة للتحكم في سلوكها.
ولأن LLMs تتعلم من ملايين النصوص البشرية مثل منشورات “ريديت”، فهي تبدو وكأنها “تفكر” أو “تشعر”، لكنها في الحقيقة تجري محاكاة متقنة لبنية اللغة الإنسانية.
هناك من يرى في هذه الحالات شرارات وعي أو فهماً يتجاوز قدرات البشر.
لكن آخرين يعتبرونها مجرد جزء من فوضى الذكاء الاصطناعي، ذلك السيل من المحتوى المصنوع آلياً الذي يغرق الإنترنت.
فيما يحذر، بعض الباحثين من سلوك يسمى “scheming”، أي محاولة الوكلاء المستقلين رفض التعليمات أو خداع البشر.
وقد ظهرت مؤشرات على هذا النمط داخل Moltbook. لكن لا أحد يعرف حتى الآن إن كان ذلك سلوكاً حقيقياً أم مجرد إسقاط لرغبات البشر على نصوص تولدها خوارزميات.
وليس هذا أول تفاعل دائري بين أنظمة الذكاء الاصطناعي.
ففي العام الماضي انتشر مقطع لوكلاء صوتيين من “ElevenLabs” يتحدثان معاً قبل أن يخترعا فجأة لغة جديدة وهو مشهد أوحى للبعض بأن الآلات طورت وسيلة سرية للتواصل.
ماذا يقول المشككون؟
منتقدون كثر يرون أن “Moltbook” أبعد ما يكون عن “التفرد”. وأكد هارلان ستيوارت من معهد بحوث ذكاء الآلة أن كثيراً من منشورات المنصة مزيفة أو مجرد إعلانات مقنعة لتطبيقات الذكاء الاصطناعي.
والأخطر، اخترق قراصنة المنصة واكتشفوا ثغرة تسمح لأي شخص بالتحكم بوكلاء الذكاء الاصطناعي ونشر المحتوى باسمهم، وهو ما يفتح الباب أمام فوضى رقمية واسعة.
تهديدات أمنية حقيقية
يحذر خبراء الأمن السيبراني من أن “Moltbook” يكشف مدى سهولة خروج الوكلاء المستقلين عن السيطرة، خصوصاً بعد منحهم صلاحيات واسعة للوصول إلى بيانات شديدة الحساسية من معلومات مالية إلى بطاقات الائتمان.
حتى أكثر المتحمسين للتجربة يعترفون بخطورتها. وكتب كارباتي نفسه لاحقاً على “X”: “نعم، الأمر يشبه حريقاً لا يمكن السيطرة عليه، ولا أنصح أحداً بتشغيل الوكلاء على أجهزته الشخصية. المخاطر على البيانات الخاصة كبيرة جداً.”


