نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
ما لا تعرفه النماذج اللغوية قد يضللك - ايجي سبورت, اليوم الأربعاء 16 يوليو 2025 08:45 صباحاً
ما يكشف حجم المشكلة هو قدرة هذه الأدوات على بث معلومات غير دقيقة، خصوصاً في سياق الأخبار العاجلة، حيث تندر المصادر الموثوقة وتتسابق المواقع والمنصات على تقديم روايات متضاربة. في واقعة حديثة مرتبطة بالاحتجاجات في لوس أنجلوس، لجأ البعض إلى أدوات الذكاء الاصطناعي للتحقق من صور انتشرت على نطاق واسع، ليكتشفوا أن الردود التي حصلوا عليها تعود إلى مناسبات أخرى لا علاقة لها بالحدث، ما ساهم في تضخيم الشكوك بدلاً من تفنيدها.
الخلل لا يعود إلى سوء نية في تصميم هذه الأنظمة، بل إلى بنية تدريبها نفسها. فهي تتعامل مع الكمّ الهائل من المحتوى الرقمي وكأنه متساوٍ في القيمة والمصداقية، دون اعتبار لمصدره أو درجة موثوقيته. الأخبار الملفقة، المقالات المشبوهة، والمحتوى المكرر من مصادر غير موثوقة، جميعها تندرج ضمن ما يُستخدم لتوليد الردود. وكلما تكرر المحتوى، ازداد احتمال أن يظهر مجدداً على لسان الأداة.
وقد أكّد تقرير صادر عن منظمة NewsGuard في يناير 2025 أن النماذج اللغوية، ومنها ChatGPT وGrok، تميل إلى "ابتلاع التضليل وإعادته للمستخدم"، خصوصاً عندما تكون المعلومات منتشرة على الإنترنت وتفتقر إلى سياقات موثوقة. وأوضح التقرير أن هذه النماذج لا تمتلك آلية تحقق داخلية فعالة، بل تميل إلى تكرار المعلومات التي تتكرر أمامها بغض النظر عن صحتها. وذكر أن عشرة من أبرز أدوات الذكاء الاصطناعي كررت معلومات مضللة بنسبة وصلت إلى 40% عند التعامل مع قضايا آنية أو متنازع عليها، وهو ما ينسجم تماماً مع ملاحظات الباحثين حول أن هذه النماذج مصممة لتقديم ردود تبدو مفيدة أكثر من كونها دقيقة.
الأزمة تتعمق أكثر مع تصاعد الاعتماد على هذه الأدوات كمصادر للمعرفة الفورية. فبدلًا من البحث والتقصّي، بات كثير من المستخدمين يكتفون بسؤال روبوت دردشة افتراضي، ثم يبنون مواقفهم أو قراراتهم على أساس الرد الذي يحصلون عليه. وما يزيد الأمر سوءاً هو أن هذه الأدوات لا تتوقف عند حدود المعلومات القديمة، بل تبحث أيضاً في الإنترنت لحظياً، مما يجعلها عرضة لالتقاط التضليل الذي ينتشر بسرعة في لحظات الالتباس أو الفراغ المعلوماتي.
في الوقت نفسه، تتراجع آليات التحقق التقليدية على منصات التواصل الاجتماعي. أنظمة الإشراف تم تفكيكها أو إضعافها لصالح نماذج تعتمد على مساهمات المستخدمين. وهو ما يُدخل بيئة الإنترنت في مرحلة جديدة من الفوضى، تتغذى فيها نماذج الذكاء الاصطناعي على محتوى أقل مصداقية، وتعيد توزيعه بسرعة وكأنها جزء من آلة دعاية غير مقصودة.
هذا الانكشاف أمام التلوث المعلوماتي لا يحدث بالصدفة. هناك جهات تنشط عمداً لنشر محتوى زائف بغرض تسميم أدوات الذكاء الاصطناعي، في عملية تُعرف بـ “LLM grooming”. يُنشئ هؤلاء مواقع متشابهة ومتكررة، ويضخّون عبرها مقالات متطابقة، حتى تصبح جزءاً من نسيج البيانات التي تعتمد عليها هذه النماذج في صياغة إجاباتها. وكلما ازداد تعقيد هذا التكتيك، ازداد صعوبة تتبع أثره أو تفاديه.
وسط هذا المشهد، لا يمكن اعتبار الذكاء الاصطناعي مرجعاً معرفياً موثوقاً، خاصة في المواضيع المتنازع عليها أو تلك المرتبطة بالراهن السياسي والاجتماعي. بل إن ما يقدمه قد يكون انعكاساً مشوشاً لما هو رائج وليس لما هو صحيح.
الخطورة لا تكمن فقط في تداول معلومات خاطئة، بل في الاعتماد المتزايد على هذه الأدوات في اتخاذ قرارات فعلية. فحين تُدمج هذه الأنظمة في البنى الإدارية أو الإعلامية أو السياسية، دون رقابة صارمة على نوعية البيانات التي تعتمد عليها، نكون أمام تحوّل جذري في طريقة تشكّل الرأي العام، مبني على تصورات مغلوطة لا على حقائق مدققة.
في النهاية، لا مفرّ من العودة إلى دور الإنسان: المراجعة، التحقق، والمقارنة بين المصادر. فالذكاء الاصطناعي لن يميز الحقيقة ما لم نعلّمه كيف يفعل، ولن يفعل ذلك ما دامت بياناته مشوبة ومصدرها عالم رقمي بلا حراسة.
0 تعليق