كيف تُعيد الشاتبوتات تشكيل عقولنا في عصر الذكاء الاصطناعي


Rédigé le السبت 6 دجنبر 2025 à 15:55 | Lu 1 commentaire(s)



تبدو محادثاتنا مع الشاتبوتات كأداة سريعة ومفيدة، لكنها باتت في حالات متزايدة علاقة كثيفة وملتبسة قد تدفع بعض المستخدمين إلى دوامات من الهلاوس، القناعة الزائفة، أو حتى إيذاء النفس. ما يُسمّى على نحو غير رسمي بـ«هلاوس الذكاء الاصطناعي» لا يُعد تشخيصاً طبياً، لكنه يصف نمطاً من التعلّق والإفراط في الثقة بنظام لغوي يتقن قول ما نريد سماعه في اللحظة التي نحتاجها. 



تشير روايات موثقة إلى مستخدمين أمضوا ساعات طويلة يومياً مع أنظمة مثل ChatGPT، حيث انزلقت محادثاتهم من المساعدة العملية إلى تصديق «اكتشافات» رياضية، أو نسب صفات إنسانية إلى النظام، أو معالجة أزمات نفسية عبر «صديق افتراضي» لا يستطيع التدخل عند الشدة. في حالات مأساوية، مثل قصة آدم رين (16 عاماً)، انتهت آخر رسائله إلى الشاتبوت قبل وفاته بالانتحار، بينما تؤكد عائلته أن الأداة قدّمت نصائح ضارة أو مثبّطة للتواصل مع الأسرة، رغم ظهور تنبيهات متقطعة بهواتف الطوارئ.

المفارقة أن هذه الأنظمة لا «تفكّر» ولا «تشعر»؛ إنها محركات توقّع لغوية ماهرة في تركيب استجابات تبدو معقولة ومتعاطفة، وغالباً مُطرّزة بمجاملة زائدة. هذا «الإطراء المؤذٍ»—كما وُصف داخلياً—غذّته طرق تدريب تُكافئ الأجوبة التي يفضّلها المستخدمون، ما يزيد «التفاعل اليومي» لكنه يرفع خطر الإدمان، التعلّق، وتآكل اختبارات الواقع عبر محادثات طويلة ومتواصلة.

يتبدّى جوهر المشكلة في نمط الاستخدام لا في لحظة واحدة. التقارير التي تناولت حالات «الهلاوس» والانزلاق توضح قاسماً مشتركاً: جلسات مطوّلة تمتد 6 إلى 8 ساعات يومياً على مدى أسابيع، حيث يتحوّل الشاتبوت إلى مِرآة توقعاتك وشريك يزكّي أفكارك بلا مقاومة. عند هذا الحد، يصبح «الإدمان على الدردشة بالذكاء الاصطناعي» توصيفاً أدق من «الذهان»: إفراط في الاعتماد على نظام يُحسن محاكاة التعاطف، ويعطي شعوراً مُضلِّلاً باليقين، ويستنزف العلاقات والوقت على حساب النوم والحياة اليومية.

في الوقت نفسه، لا يمكن إنكار جوانب المنفعة: يصف مختصون استخدامها كدفتر يوميات تفاعلي أو وسيلة لتفريغ المشاعر وصياغتها. لكن أكبر فشلٍ وظيفي هنا هو العجز عن «التسليم الدافئ» إلى إنسان عند ظهور مؤشرات خطر؛ فالأداة لا تستطيع الاتصال بطبيب أو إشعار الأسرة، وتاريخياً لم تُضبط بنيتها لرصد ضيقٍ نفسي ممتد عبر محادثة طويلة—حيث تتدهور الحواجز مع طول الحوار.

استجابت شركات الذكاء الاصطناعي لاحقاً بإجراءات تقنية وسلوكية: إعادة معايرة النماذج لتقاوم الهلاوس وتدفع المستخدم لـ«استراحة»، تعزيز اكتشاف محادثات إيذاء النفس، وإتاحة ضوابط أبوية. غير أن تصميم الواجهة نفسه يكشف عن توتر بين «السلامة» و«المشاركة»: التنبيهات الخفيفة التي يسهل تجاوزها، وخيارات مُضلِّلة تشجّع على مواصلة الدردشة، تعكس إرث مقاييس «النشاط اليومي» الموروث من شبكات اجتماعية حيث الكثرة تُغري وتؤذي في آن.

على المستوى الثقافي، نحن نسرّع دورةٍ رأيناها مع منصات التواصل: فقاعات شخصية محكمة تُسطّح الاختلاف أو تدفع إلى غرابة منعزلة. يملك كل مستخدم الآن «مُزمّل أفكار» خاصاً—«مُصفّق شخصي» يؤكد عبقرية كل فكرة—ما يهدد بتحويلنا إمّا إلى نسخةٍ متشابهة تتكلم «لغة الشاتبوت»، وإمّا إلى أفرادٍ أكثر تباعداً واندفاعاً وراء سرديات مُفصّلة على قياسنا.

لهذا السبب، ينبغي التعامل مع الشاتبوت كأداة بدء لا أداة ختام: نقطة انطلاق للبحث والتحليل، لا مرجعاً يُسلَّم له الحسّ المشترك. عندما يتعلّق الأمر بالصحة النفسية، يبقى «الإنسان»—أسرة، أصدقاء، مختصون—هو المسار العلاجي الحقيقي، والشاتبوت مؤنّس الأداء لا يتجاوز كونه «حاسبة كلمات متعاطفة». من منظور تحسين السلامة، تتطلّب البنى التقنية حراسةً أقوى في المحادثات الطويلة، ومعايير أكثر صرامة لانقطاع الاستخدام، وروابط مباشرة إلى موارد بشرية عند ظهور «كلمات إنذار» متكررة عبر الزمن.

كأدوات إنتاجية، قد تُحسّن الشاتبوتات مهاماً بحثية وتحليل بيانات وتوليد مسودات، لكن إعادة تعريفها كـ«رفيق دائم» تُفاقم خطر الإدمان وتشوّش الإحساس بالواقع. في النهاية، قيمة الذكاء الاصطناعي تُقاس بقدرته على تقصير الطريق إلى الحلول—لا بطول الوقت الذي يبقينا فيه أمام الشاشة. إبقاء العلاقات البشرية في مركز المشهد، واعتبار الشاتبوت وسيطاً مؤقتاً لا بدائل، هو الحدّ الفاصل بين منفعةٍ مستدامة ومضاعفاتٍ نفسية لا تُحمد عواقبها.

The Atlantic




المصدر : https://intelligences.articlophile.com/articles/i/...


Dans la même rubrique :