تعد هذه النتيجة من أبرز التصريحات المباشرة الصادرة عن شركة التكنولوجيا حول كيفية تفاقم الذكاء الاصطناعي لمشاكل الصحة العقلية.
يرسل أكثر من مليون مستخدم لـ “ChatGPT” أسبوعياً رسائل تتضمن “مؤشرات صريحة على احتمال التخطيط أو النية للانتحار”، وفقاً لتدوينة نشرتها “OpenAI” يوم الاثنين.
تعد هذه النتيجة، التي تأتي كجزء من تحديث حول كيفية تعامل روبوت الدردشة مع المحادثات الحساسة، من أبرز التصريحات المباشرة الصادرة عن عملاق الذكاء الاصطناعي حول مدى تفاقم الذكاء الاصطناعي لمشاكل الصحة العقلية، وفقاً لما نقلته صحيفة “الغارديان”، واطلعت عليه “العربية Business”.
بالإضافة إلى تقديراتها للأفكار الانتحارية والتفاعلات ذات الصلة، ذكرت “أوبن إيه آي” أيضاً أن حوالي 0.07% من المستخدمين النشطين أسبوعياً – أي حوالي 560,000 من أصل 800 مليون مستخدم أسبوعياً – يظهرون “علامات محتملة لحالات طوارئ صحية عقلية مرتبطة بالذهان أو الهوس”. وحذرت التدوينة من صعوبة اكتشاف هذه المحادثات أو قياسها، وأن هذا تحليل أولي.
ومع نشر “أوبن إيه آي” بيانات حول مشاكل الصحة النفسية المتعلقة بمنتجها الرائد، تواجه الشركة تدقيقاً متزايداً عقب دعوى قضائية حظيت بتغطية إعلامية واسعة من عائلة مراهق انتحر بعد تعاون مكثف مع ChatGPT. كما أطلقت لجنة التجارة الفيدرالية الشهر الماضي تحقيقاً واسع النطاق في الشركات التي تنشئ روبوتات الدردشة القائمة على الذكاء الاصطناعي، بما في ذلك OpenAI، لمعرفة كيفية قياسها للآثار السلبية على الأطفال والمراهقين.
ادعت “OpenAI” في منشورها أن تحديث GPT-5 الأخير قد قلل من عدد السلوكيات غير المرغوب فيها من منتجها وحسن سلامة المستخدمين في تقييم نموذجي شمل أكثر من 1000 محادثة حول إيذاء النفس والانتحار. ولم ترد الشركة على طلب التعليق فوراً.
وكتبت الشركة: “أظهرت تقييماتنا الآلية الجديدة توافق نموذج GPT-5 الجديد مع سلوكياتنا المرغوبة بنسبة 91%، مقارنةً بنسبة 77% لنموذج GPT-5 السابق”.
وأفادت OpenAI أن GPT-5 وسع نطاق الوصول إلى خطوط الطوارئ الساخنة، وأضاف تذكيرات للمستخدمين بأخذ فترات راحة خلال الجلسات الطويلة. ولتحسين النموذج، قالت الشركة إنها استعانت بـ 170 طبيباً من شبكتها العالمية للأطباء من خبراء الرعاية الصحية لدعم أبحاثها خلال الأشهر الأخيرة، والتي شملت تقييم سلامة ردود نموذجها، والمساعدة في كتابة إجابات روبوت الدردشة على الأسئلة المتعلقة بالصحة النفسية.
لطالما أبدى باحثو الذكاء الاصطناعي ودعاة الصحة العامة حذرهم من ميل روبوتات الدردشة إلى تأكيد قرارات المستخدمين أو أوهامهم بغض النظر عما إذا كانت ضارة، وهي مسألة تعرف باسم “التملق”. كما أبدى خبراء الصحة النفسية قلقهم بشأن استخدام الأشخاص لروبوتات الدردشة المدعومة بالذكاء الاصطناعي للدعم النفسي، وحذروا من إمكانية إلحاقها الضرر بالمستخدمين الضعفاء.


