دراسة: أنظمة كشف الكذب بالذكاء الاصطناعي “أكفأ من البشر”
أثبتت دراسة جديدة أن أنظمة كشف الكذب العاملة بالذكاء الاصطناعي، لديها قدرة تفوق قدرات البشر في ما يتصل بالتمييز بين الكذب والحقيقة.
وأجرت الدراسة، التي أنجزتها الباحثة الاقتصادية في جامعة فورتسبورغ الألمانية، فون شينك، وفريقها، ونشرتها مجلة (إي ساينس) “iScience”، بعض التجارب لمعرفة كيفية استخدام الناس لأداة جديدة تعمل بالذكاء الاصطناعي، والتي أثبتت “قدرتها المتفردة في التمييز بين المعلومات الصحيحة، والأكاذيب”، ولكن في الوقت نفسه أدت إلى زيادة عدد الاتهامات الموجهة للأشخاص محل الدراسة، وفقا لما نقله موقع “MIT Technology Review “.
وخلال التجربة، طالب فريق البحث الألماني مجموعة من المتطوعين كتابة بيانات عن خططهم لعطلة نهاية الأسبوع، وخلال نصف الوقت، كان المستجوبون م حف زين للكذب في خططهم، حيث جمع الفريق 1536 بيانا من 768 شخصا.
وأفادت الدراسة بأن الفريق استخدم 80 بالمائة من هذه البيانات لتدريب خوارزمية على الأكاذيب والحقائق، باستخدام نموذج لغوي ضخم من (غوغل) معروف اختصارا ب”BERT”، وهي تقنية قائمة على الشبكة العصبية للتدريب المسبق على معالجة اللغة الطبيعية.
وبخصوص نسبة 20 بالمائة من البيانات المتبقية من بيانات المبحوثين، أكدت الدراسة أن الفريق وجد أن الأداة نجحت في تحديد ما إذا كان البيان صحيحا أم كاذبا بنسبة 67 بالمائة من الوقت، مسجلة أن ذلك “يفوق معدل دقة تخمينات البشر لاكتشاف الكذب، والذي نسبته تصل إلى 50 بالمائة فقط”.
واعتبرت فون شينك أن الفريق، الذي انطلق من فكرة مؤداها إنشاء أداة تكون أفضل من البشر في اكتشاف الأكاذيب، وضع تصور أداة تستخدم بشكل روتيني لتقييم صدقية المنشورات على وسائل التواصل الاجتماعي، أو البحث عن تفاصيل مزيفة في السيرة الذاتية لمتقدم لوظيفة ما، أو في إجابات مقابلة للعمل، محذرة من سوء استخدام تلك الأداة، “إذا كانت ستؤدي إلى زيادة تبادل الاتهامات والشك بين البشر”.
وأشار الفريق في خلاصة الدراسة إلى أنه في الوقت الذي ستكون أدوات كشف الكذب بالذكاء الاصطناعي مفيدة في اكتشاف المزيد من الأكاذيب التي تتم مصادفتها في الحياة اليومية، مثل المعلومات الخاطئة على وسائل التواصل الاجتماعي، إلا أنها ستتسبب في حالة من انعدام الثقة بين البشر.
ومع