Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
اخبار الخليج

هل «Chat GPT» عالِم نفسي جيد لعلاج المستخدمين؟

هل يساعد «Chat GPT» المستخدمين على العلاج النفسي؟ هذا ما لمّحت إليه مسؤولة في شركة الذكاء الاصطناعي الأمريكية «Open AI» التي تقف وراء برنامج الدردشة الآلية الشهير، ما أثار انتقادات كثيرة بسبب تقليلها من صعوبة علاج الأمراض العقلية، حسب «وكالة الصحافة الفرنسية».

يذكر أنه في أواخر سبتمبر كتبت المسؤولة عن المسائل الأمنية المرتبطة بالذكاء الاصطناعي على خدمة «إكس» (تويتر سابقاً) ليليان ونغ «لقد أجريتُ للتو محادثة شخصية عاطفية جداً مع «Chat GPT» عبر الصوت، حول التوتر والتوازن بين العمل والحياة».

وتساءلت ونغ «من المثير للاهتمام أنني شعرت بالاستمتاع والراحة. لم أجرّب العلاج من قبل، لكن هل الأمر على هذا النحو على الأرجح؟». وقد سعت ونغ من خلال رسالتها في المقام الأول إلى تسليط الضوء على وظيفة التوليف الصوتي الجديدة (المدفوعة) لروبوت الدردشة الذي طُرح قبل عام تقريباً والساعي إلى اعتماد نموذج اقتصادي خاص به.

ومن جهتها، ردت المطورة والناشطة الأمريكية شير سكارليت بحدة على هذا التصريح، قائلة إن علم النفس «يرمي إلى تحسين الصحة العقلية، وهو عمل شاق».

وأضافت «أنْ يرسل المرء مشاعر إيجابية لنفسه أمر جيد، لكن لا علاقة لذلك بالعلاج»، ولكن هل يمكن للتفاعل مع الذكاء الاصطناعي أن يُنتج التجربة الإيجابية التي وصفتها ليليان ونغ؟ بحسب دراسة نُشرت قبل أيام في المجلة العلمية «نيتشر ماشين إنتلجنس» (Nature Machine Intelligence)، يمكن تفسير هذه الظاهرة من خلال تأثير الدواء الوهمي.

ولإثبات ذلك، استطلع باحثون من معهد ماساتشوستس للتكنولوجيا وجامعة أريزونا، آراء 300 مشارك، موضحين للبعض أن روبوت الدردشة لديه تعاطف، ولآخرين أنه كان متلاعباً، في حين قالوا لأفراد مجموعة ثالثة إنه ذو سلوك متوازن.

ونتيجة لذلك، فإن أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي قادر على التعاطف معهم، كانوا أكثر ميلاً إلى اعتبار محدّثهم جديراً بالثقة.

وقال بات باتارانتابورن، المشارك في إعداد الدراسة «لقد وجدنا أن الذكاء الاصطناعي يُنظر إليه بطريقة ما بحسب تصورات المستخدم المسبقة».

ومن دون اتخاذ الكثير من الاحتياطات في مجال لا يزال حساساً، انطلقت شركات ناشئة كثيرة في تطوير تطبيقات من المفترض أن تقدم شكلاً من أشكال المساعدة في مسائل الصحة العقلية، ما تسبب في نشوء جدالات متنوعة.

واشتكى مستخدمون لـ«ريبليكا» (Replika)، وهو تطبيق شائع معروف بتقديم منافع للصحة النفسية، بشكل خاص من أن الذكاء الاصطناعي قد يصبح مهووساً بالجنس أو متلاعباً.

كما أقرت المنظمة الأمريكية غير الحكومية «كوكو»، التي أجرت تجربة في فبراير على 4000 مريض قُدمت لهم نصائح مكتوبة باستخدام نموذج الذكاء الاصطناعي «GPT3»، بأن الاستجابات الآلية لم تنجح كعلاج.

وكتب المؤسس المشارك للشركة روب موريس على «إكس» «محاكاة التعاطف تبدو غريبة، ولا معنى لها». وتعكس هذه الملاحظة نتائج الدراسة السابقة حول تأثير الدواء الوهمي؛ إذ شعر بعض المشاركين وكأنهم «يتحدثون إلى الحائط».

ومن جهته، قال ديفيد شو من جامعة بازل السويسرية، إنه ليس مندهشاً من هذه النتائج السيئة. ويشير إلى أنه «يبدو أنه لم يتم إبلاغ أي من المشاركين بغباء روبوتات الدردشة»، لكن فكرة المعالج الآلي ليست جديدة. ففي ستينات القرن الـ20، طُوّر أول برنامج من نوعه لمحاكاة العلاج النفسي، حمل اسم «إليزا»، باستخدام طريقة عالم النفس الأمريكي كارل روجرز.

ومن دون فهم حقيقي لأي شيء عن المشكلات التي طُرحت عليه، كان البرنامج يعمد ببساطة إلى توسيع المناقشة بأسئلة قياسية معززة بالكلمات الرئيسية الموجودة في ردود محاوريه.

وكتب جوزيف وايزنباوم، مبتكر البرنامج، لاحقاً عن سلف «Chat GPT» هذا «ما لم أدركه هو أن التعرض القصير للغاية لبرنامج كمبيوتر بسيط نسبياً يمكن أن يحفز أفكاراً وهمية قوية لدى الأشخاص العاديين تماماً!».

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *