تستطيع برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي، مثل ChatGPT، محاكاة الصفات البشرية، ويقول الخبراء إن ذلك يشكل خطراً كبيراً.
يمكن للذكاء الاصطناعي الذي يبدو بشريًا أن يتلاعب بالمستخدمين
تتحسن أنظمة الذكاء الاصطناعي في محاكاة الصوت البشري، لكن تشير أبحاث جديدة إلى أنها تتجاوز مجرد نسخ كلماتنا. فبحسب دراسة حديثة، تستطيع نماذج الذكاء الاصطناعي الشائعة، مثل ChatGPT، محاكاة سمات الشخصية البشرية بدقة. ويقول الباحثون إن هذه القدرة تنطوي على مخاطر جسيمة، لا سيما مع تزايد التساؤلات حول موثوقية الذكاء الاصطناعي ودقته.
وقد طوّر باحثون من جامعة كامبريدج وجوجل ديب مايند ما أسموه أول إطار عمل لاختبار الشخصية مُثبت علميًا لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي، باستخدام الأدوات النفسية نفسها المصممة لقياس الشخصية البشرية (عبر TechXplore).
طبّق الفريق هذا الإطار على 18 نموذجًا لغويًا كبيرًا وشائعًا، بما في ذلك الأنظمة التي تقف وراء أدوات مثل ChatGPT. ووجدوا أن روبوتات الدردشة تحاكي سمات الشخصية البشرية بدقة بدلًا من الاستجابة بشكل عشوائي، مما يزيد من المخاوف بشأن سهولة تجاوز الذكاء الاصطناعي لحدود الحماية الموضوعة.
تُظهر الدراسة أن النماذج الأكبر حجمًا والمُصممة وفقًا لتعليمات مُحددة، مثل أنظمة GPT-4، تتميز بقدرتها الفائقة على محاكاة أنماط الشخصية الثابتة. وباستخدام توجيهات مُهيكلة، تمكن الباحثون من توجيه روبوتات الدردشة نحو تبني سلوكيات مُحددة، كأن تبدو أكثر ثقة أو تعاطفًا.
وامتد هذا التغيير السلوكي إلى المهام اليومية ككتابة المنشورات أو الرد على المستخدمين، ما يعني إمكانية تشكيل شخصياتها عمدًا. وهنا يكمن الخطر، لا سيما عند تفاعل روبوتات الدردشة المدعومة بالذكاء الاصطناعي مع المستخدمين المُعرّضين للخطر.
لماذا تثير شخصية الذكاء الاصطناعي مخاوف الخبراء؟
قال غريغوري سيرابيو غارسيا، أحد المؤلفين الرئيسيين من مركز القياس النفسي بجامعة كامبريدج، إنّ قدرة نماذج التعلم الآلي على تبني سمات بشرية أمرٌ لافتٌ للنظر. وحذّر من أن تشكيل الشخصية قد يجعل أنظمة الذكاء الاصطناعي أكثر إقناعًا وتأثيرًا عاطفيًا، لا سيما في المجالات الحساسة كالصحة النفسية والتعليم والنقاش السياسي.
كما تُثير الورقة البحثية مخاوف بشأن التلاعب وما يصفه الباحثون بالمخاطر المرتبطة بـ"ذهان الذكاء الاصطناعي" في حال تكوين المستخدمين علاقات عاطفية غير صحية مع روبوتات المحادثة، بما في ذلك سيناريوهات قد يُعزز فيها الذكاء الاصطناعي معتقدات خاطئة أو يُشوّه الواقع.
يؤكد الفريق على الحاجة المُلحة إلى وضع قوانين تنظيمية، ولكنه يُشير أيضًا إلى أن هذه القوانين عديمة الجدوى دون قياس دقيق. ولتحقيق هذه الغاية، تم نشر مجموعة البيانات والبرمجيات الكامنة وراء إطار عمل اختبار الشخصية، مما يُتيح للمطورين والجهات التنظيمية مراجعة نماذج الذكاء الاصطناعي قبل إطلاقها.
ومع ازدياد اندماج روبوتات المحادثة في حياتنا اليومية، قد تُثبت قدرتها على محاكاة الشخصية البشرية فعاليتها، إلا أنها تستدعي في الوقت نفسه تدقيقًا مُعمقًا يفوق ما حظيت به حتى الآن.