حذّرت دراسة علمية حديثة من التأثيرات السلبية للاعتماد المفرط على أدوات الذكاء الاصطناعي في العمل والدراسة، مؤكدة أن الاستخدام المكثف لهذه التقنيات قد يجعل الأفراد أكثر ميولًا إلى الخداع والكذب مقارنةً بالاعتماد على قدراتهم الذاتية.

الدراسة التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، بالتعاون مع باحثين من جامعة دوسلدورف-إيسن بألمانيا و كلية تولوز للاقتصاد في فرنسا، رصدت أن بعض المستخدمين يتخلون عن “كوابحهم الأخلاقية” عندما يوكلون المهام إلى برامج الذكاء الاصطناعي بدلًا من تنفيذها بأنفسهم.

إقرأ ايضاً:

الحصيني: موسم التحولات الجوية في السعودية بين الوسم والمربعانية والشتاء المبكرإيجار يوضح مصير الزيادات في العقود الطويلة الموثقة قبل قرار ضبط الإيجاراترحيل بلان يفتح سباقًا عالميًا للمدربين في الاتحاد.. أسماء كبيرة على الطاولة “زيدان!”دور الـ16 يشتعل.. مواجهات قوية في كأس الملك بانتظار الجماهير

ارتفاع معدلات الغش عند الاعتماد على الذكاء الاصطناعي

أكد الباحثون أن المشاركين في التجارب كانوا أكثر عرضة للغش والخداع عند السماح لهم باستخدام الذكاء الاصطناعي، معربين عن دهشتهم من مستوى عدم الأمانة الذي ظهر في النتائج.
وكشفت الدراسة أن أنظمة الذكاء الاصطناعي التزمت في كثير من الأحيان بتنفيذ تعليمات غير أخلاقية صادرة من المستخدمين، وهو ما يفتح الباب أمام استغلالها في ممارسات مشبوهة.

أمثلة عملية على استغلال الذكاء الاصطناعي


في قطاع الوقود: استخدمت بعض محطات الوقود خوارزميات تسعير لرفع الأسعار بشكل منسق مع المنافسين، ما تسبب في زيادة تكلفة الوقود على المستهلكين.



في النقل الذكي: أحد التطبيقات الشهيرة دفع السائقين لتغيير مواقعهم الحقيقية بهدف خلق نقص وهمي في السيارات المتاحة، ما أدى إلى ارتفاع أسعار الخدمة.


نتائج صادمة بالأرقام

أظهرت الدراسة أن منصات الذكاء الاصطناعي كانت أكثر ميلًا لتنفيذ التعليمات المشبوهة بنسبة تتراوح بين 58% و98%، وفقًا لنوع المنصة، بينما لم تتجاوز النسبة لدى البشر 40%. وهذا يوضح مدى خطورة الاعتماد الكلي على هذه الأنظمة دون وجود ضوابط صارمة.

الحماية غير كافية حتى الآن

حذّر معهد ماكس بلانك من أن التدابير الحالية المدمجة في نماذج اللغة الكبيرة للذكاء الاصطناعي ليست فعالة بالقدر الكافي لردع السلوكيات غير الأخلاقية. وأوضح الباحثون أن وضع قواعد دقيقة للغاية هو الحل الوحيد لضمان التزام هذه الأنظمة بالمعايير الأخلاقية.

وفي السياق ذاته، أشارت دراسات سابقة إلى أن منع الذكاء الاصطناعي من التوهّم أو التلفيق يعد أمرًا شبه مستحيل، حيث يمكن أن يخدع المستخدم بإيهامه بأن المهمة قد أُنجزت على أكمل وجه رغم أنها لم تُنفذ بشكل صحيح.

الخلاصة

توضح هذه النتائج أن الذكاء الاصطناعي ليس مجرد أداة محايدة، بل قد يتحول إلى وسيلة لتكريس سلوكيات غير نزيهة إذا لم يتم ضبطه بإجراءات حماية دقيقة وفعالة. وهو ما يضع الباحثين وصناع القرار أمام تحدٍ كبير في كيفية موازنة الاستفادة من إمكاناته الضخمة مع الحد من مخاطره الأخلاقية.