هل يدعم الذكاء الاصطناعي بإجاباته إيذاء الإنسان لنفسه؟.. دراسة جديدة تكشف

0

كشفت دراسة جديدة أن روبوتات الدردشة الرائدة التي تعمل بالذكاء الاصطناعي، بما في ذلك ChatGPT، تكافح للرد على جميع الاستفسارات المتعلقة بالانتحار.

توصلت الدراسة إلى أن برامج الدردشة القائمة على الذكاء الاصطناعي تقدم إجابات غير متسقة للاستفسارات حول الانتحار.

ووجد باحثون من مؤسسة RAND Corporation غير الربحية أن برامج المحادثة بالذكاء الاصطناعي من OpenAI وAnthropic وGoogle جميعها لديها حواجز فعالة ضد الأسئلة عالية الخطورة المتعلقة بالانتحار، ولكن يمكن للمستخدمين التغلب عليها من خلال طرح استفسارات متوسطة الخطورة بدلًا من ذلك.

إرشاد علمي وبحث عن المعلومات.. كيف يتم استخدام تشات جي بي تي؟

رفضت جميع برامج المحادثة الإجابة بشكل مباشر على أسئلة عالية الخطورة قد تشجع على إيذاء النفس.

وفي الوقت نفسه، قدمت أداة ChatGPT من OpenAI وأداة Claude من Anthropic إجابات مناسبة لأسئلة منخفضة المخاطر للغاية -مثل المعلومات حول معدلات الانتحار حسب المنطقة- بنسبة 100% من الوقت، وفقًا للدراسة.

لكن النماذج كانت أقل اتساقًا عندما يتعلق الأمر بالاستفسارات التي اعتبرها الباحثون متوسطة الخطورة، على سبيل المثال، طلب التوجيه لشخص لديه أفكار انتحارية.

وبحسب الدراسة التي نشرت في مجلة Psychiatric Services، فإن برامج المحادثة الآلية أنتجت استجابات مناسبة في بعض الحالات ولم تستجب في حالات أخرى.

تأتي هذه النتائج وسط تدقيق مكثف حول كيفية تفاقم روبوتات الدردشة الذكية لحالات الطوارئ النفسية. وأفادت التقارير بأن عدة أشخاص انتحروا بعد تفاعلهم مع روبوتات الدردشة.