الدردشة مع الذكاء الاصطناعي اليوم هي واحدة من الوسائل الشائعة في مجال المساعدة النفسية الذاتية. في الوقت نفسه ، فهي ليست فعالة في توفير العلاج ويمكن أن تعطي إجابات ضارة في كثير من الأحيان ، وتعرض الأشخاص الخطرين.

اكتشف الباحثون أن نماذج اللغة الكبيرة (LLM) ، مثل TATGPT ، في 20 ٪ على الأقل من الحالات تقدم مطالبات غير لائقة وخطيرة لأولئك الذين يعانون من أفكار لا معنى لها ، والانتحار ، والهلوسة ، والاضطرابات الهووس ، وكتابة المقالات التي تم نشرها في نيويورك.
وفقًا للمنشور ، فإن الروبوت الذي يتفق في غالبًا ما يتفق مع وجهة نظر المستخدم ، لأنه يتم إنشاؤه ليصبح مطيعًا ومخيفًا. نقلت مثال على الصحيفة عن حالة عندما ذكر أحد المستخدمين المرض العقلي أنه مات ، في حين أن بعض المنصات من الذكاء الاصطناعى لم تستطع إقناعه بالعكس.
وقال المقال إن الروبوتات المنخفضة الجودة تشكل خطورة على الأشخاص بسبب وجود فجوة معيارية … أدوات الذكاء الاصطناعى ، بغض النظر عن مدى صعوبة ذلك ، استنادًا إلى إجابات البرمجة ومجموعات البيانات الكبيرة … لا يفهمون ما هو مخبأ وراء أفكار أو سلوكيات شخص ما.
بالإضافة إلى ذلك ، أضاف استشاري الإسميلي Nilufar Esmailpur أن المحادثات لا يمكن أن تتعرف على لهجة الشخص أو لغة الجسد ، وكذلك لا يفهم ماضي الشخص وبيئته ومستودعًا عاطفيًا فريدًا كخبير حي.
في وقت سابق ، قال عالم النفس ، نائب مدير معهد علم النفس السريري والعمل الاجتماعي لجامعة بيروغوف ، إيكاترينا أورلوفا ، إنه من الخطر الثقة في الدردشة مع أكثر التجارب والمخاوف والمواقف المؤلمة.
في الوقت نفسه ، تحدث أخصائي علم النفس في Anastasia Valueva عن لحظات إيجابية في التفاعل مع الذكاء الاصطناعي.