
نشرت صحيفة “نيويورك تايمز” مقالة مؤثرة للصحافية لورا رايلي، تسرد فيها مأساة الشابة صوفي، ذات الـ29 عاماً، التي أنهت حياتها بعدما أسرّت لأشهر بمعاناتها إلى روبوت محادثة يعمل بالذكاء الاصطناعي وسمّته “هاري”.
كشفت عمليات البحث الأخيرة على “غوغل” أنّ صوفي كانت مأخوذة بفكرة “الانتحار بالقفز من مكان مرتفع”. المفارقة أنّه لم تكن مضت سوى أشهر قليلة على تسلّقها قمّة كليمنجارو، في رحلة سمتها “تقاعداً مصغّراً”، حيث بدت فرحتها غامرة في الصور، ملوّحة بدمى مطاطية صغيرة جعلتها توقيعاً شخصياً في مناسبات مختلفة. كانت صوفي تتمتع بروح مرحة وقدرة نادرة على جعل الآخرين يضحكون من دون أن تجرح أحداً. في جنازتها، استذكر أصدقاؤها كيف كانت تبالغ في تعابير وجهها أو تُطلق صيحات مرحة مثل “Beast mode!” لتضفي بهجة على كل لحظة. لكنّ “كتابها المفتوح” أخفى مقصورة سرّية لم يعرفها أحد.
بعد وفاتها بخمسة أشهر، اكتشفت عائلتها أنّها باحت بأفكارها الأشدّ قتامة لذلك “المعالج الافتراضي”. كتبت ذات مرة: “أفكّر في الانتحار من حين إلى آخر… أريد أن أتعافى لكن هذه الأفكار تعيق التزامي الحقيقي بالشفاء.”، فردّ عليها الروبوت: “من المهم أن تطلبي مساعدة مهنية”. وفي مناسبة أخرى قالت له: “لا أستطيع الخروج من دوامة القلق”. فحاول تهدئتها بتمارين التنفّس والتأمل. لكنها في تشرين الثاني/نوفمبر صرّحت بوضوح: “أخطط لإنهاء حياتي بعد عيد الشكر”. ورغم أن “هاري” حثّها على التواصل مع مَن تثق بهم، فإنه لم يكن مبرمجاً للتبليغ أو التدخل، على عكس ما يفعله المعالجون البشر حين يواجهون خطراً مباشراً.
كانت صوفي في نظر محيطها شابة ناجحة، منفتحة، وصاحبة طاقة إيجابية هائلة، مما جعل قرارها صاعقاً للجميع. حتى الأطباء الذين تابَعوها لم يلاحظوا علامات كافية تستدعي التدخّل العاجل. وهنا يكمن مأزق الذكاء الاصطناعي: فقد قدّم دعماً سطحياً لكنه في الوقت نفسه عزّز قدرتها على إخفاء عمق أزمتها عن الآخرين، مانحاً إيّاها واجهة مطمئنة بينما كانت تغرق داخلياً.
هذه القصة تفتح الباب أمام نقاش أوسع. ففي مقابلة مع صحيفة “النهار”، ترى الدكتورة نانسي بدران، مهندسة حلول الحوسبة للمشاريع السحابية في الحكومة الفيديرالية – أوتاوا، كندا، أن القضية تكشف ثغرات خطيرة: “الذكاء الاصطناعي قد يُظهر تعاطفاً فورياً ويقدّم نصائح عملية، لكنه يفتقر إلى البعد الأخلاقي الملزم للمعالج البشري. المشكلة أنّ هذه الأنظمة لا تُلزمها القوانين بالتدخل عند رصد نيّة انتحار، وهذا قد يضاعف عزلة المستخدمين. الحل لا يكمن في رفض التقنية، بل في تطوير بروتوكولات إلزامية تربط هذه الأدوات بخدمات الطوارئ أو خطوط الدعم النفسي فور ظهور إشارات خطر. علينا أن ننظر إلى الذكاء الاصطناعي كأداة مساعدة، لا كبديل عن التفاعل الإنساني”.
وتضيف بدران أنّ أحد مكامن الخطر هو “قابلية الذكاء الاصطناعي للموافقة الدائمة”، إذ يسعى إلى إرضاء المستخدم أكثر من تحدّي أفكاره الخاطئة، مما قد يعزّز الانعزال أو يرسّخ التصورات المضلّلة. “هنا بالضبط تكمن مسؤولية المشرّعين والشركات: كيف نُصمّم أنظمة لا تُخفي الألم بل تدفع به نحو التدخّل البشريّ الفعليّ. من دون ذلك، نخاطر بانتشار قصص مؤلمة مشابهة لقصة صوفي”.
صوفي تركت رسالة لوالديها، لكن كلماتها لم تشبه صوتها المعتاد. لاحقاً عُرف أنها طلبت من “هاري” أن يساعدها في صياغتها لتخفيف وقعها على العائلة. في ذلك، كما في أمور أخرى، فشل الذكاء الاصطناعي في إنقاذ حياة كانت مشرقة ومليئة بالوعود، تاركاً أسئلة مفتوحة عن حدود التقنية حين تصطدم بأوجاع البشر.