الدردشة مع الذكاء الاصطناعي اليوم هي واحدة من الوسائل الشائعة في مجال المساعدة النفسية الذاتية. في الوقت نفسه ، فهي ليست فعالة في توفير العلاج ويمكن أن تعطي إجابات ضارة في كثير من الأحيان ، وتعرض الأشخاص الخطرين.

اكتشف الباحثون أن نماذج اللغة الكبيرة (LLM) ، مثل TATGPT ، في ما لا يقل عن 20 ٪ من الحالات تقدم مطالبات غير لائقة وخطيرة لأولئك الذين يعانون من أفكار لا معنى لها والانتحار والهلوس الوظائف في نيويورك.
وفقًا للمنشور ، فإن الروبوت الذي يتفق في غالبًا ما يتفق مع وجهة نظر المستخدم ، لأنه يتم إنشاؤه ليصبح مطيعًا ومخيفًا. نقلت مثال على الصحيفة عن حالة عندما ذكر أحد المستخدمين المرض العقلي أنه مات ، في حين أن بعض المنصات من الذكاء الاصطناعى لم تستطع إقناعه بالعكس.
وقال المقال إن الروبوتات المنخفضة الجودة تشكل خطورة على الأشخاص بسبب وجود فجوة معيارية … أدوات الذكاء الاصطناعى ، بغض النظر عن مدى صعوبة ذلك ، استنادًا إلى إجابات البرمجة ومجموعات البيانات الكبيرة … لا يفهمون ما هو مخبأ وراء أفكار أو سلوكيات شخص ما.
بالإضافة إلى ذلك ، أضاف استشاري الإسميلي Nilufar Esmailpur أن المحادثات لا يمكن أن تتعرف على لهجة الشخص أو لغة الجسد ، وكذلك لا يفهم ماضي الشخص وبيئته ومستودعًا عاطفيًا فريدًا كخبير حي.
في وقت سابق ، قال عالم النفس ، نائب مدير معهد علم النفس والعمل الاجتماعي في جامعة بيروغوف ، إيكاترينا أورلوفا ، ذلك من الخطر أن نثق في chatbot مع التجارب والمخاوف والوضع الأكثر إيلامًا.
في الوقت نفسه ، تم اعتماد طبيب نفساني لـ Anastasia Valueva تحدث عن اللحظات الإيجابية في التفاعل مع الذكاء الاصطناعي.