في عالم يتغير بسرعة مذهلة بفعل ثورة الذكاء الاصطناعي، أصبح السؤال حول كيفية تعامل هذه التقنيات مع القضايا السياسية الحساسة والمثيرة للجدل سؤالاً جوهرياً لا يمكن تجاهله، فالذكاء الاصطناعي يُقدَّم نظرياً كأداة حيادية، لا تنحاز ولا تنجذب إلى رأي أو سلطة، بل تحلل البيانات وتقدم الإجابات بشكل موضوعي ومستقل. لكن الواقع، كما يثبت يوماً بعد يوم، أكثر تعقيداً بكثير من هذا التصور المثالي، فالحياد الاصطناعي، رغم أنه مفهوم جميل في النظريات، يظل رهينة العقول والجهات التي تطوره وتحدد حدوده. الذكاء الاصطناعي لا يملك وعياً ولا رأياً خاصاً به، بل يُدرّب على محتوى بشري مليء بالتناقضات والاتجاهات والهويات والسرديات المتنافسة. وبذلك يصبح الذكاء الاصطناعي انعكاساً ـ بشكل أو بآخر ـ للعالم الذي تغذيه به الشركات والمؤسسات والمراكز البحثية. ومن هنا يبدأ الخطر: من يتحكم في مصادر المعرفة؟ ومن يضع الخطوط الحمراء؟ ومن يقرر ما يجب أن يُقال وما يجب أن يُحجب؟
ومن بين أكثر الأمثلة وضوحاً على هذا الانحراف عن الحياد ما حدث مع نموذج «غروك» على منصة «أكس»، فقد ظهر النموذج منذ الأيام الأولى وكأنه مدموغ ببصمة سياسية محددة، تُشبه إلى حد كبير خطاب المنصة ومالكها، لا خطاب آلة حيادية، ففي عدد من القضايا السياسية المثيرة للجدل، خصوصاً تلك المتعلقة بالولايات المتحدة أو الحروب الجارية أو السياسات الغربية، قدّم «غروك» إجابات بدت وكأنها منحازة بوضوح نحو رؤية معينة، حتى عندما كان يفترض أن يعرض مقاربات متعددة أو يوازن بين وجهات النظر. لم يكن الخلل تقنياً، بل منهجياً: النموذج بدا وكأنه مُصمَّم بطريقة تسمح له بتقديم نقد قاس لخطابات معينة، بينما يقدّم خطاباً مُخفّفاً أو مُرائياً لتيارات أخرى. هذا السلوك لم يمرّ بصمت، بل أثار موجة واسعة من الانتقادات، لأنه كشف المخاوف التي طالما خشيها كثيرون: أن الذكاء الاصطناعي قد يتحوّل إلى بوق ناعم يخدم سردية من يتحكم بالمنصة، وأن الخوارزميات التي تُقدَّم للبشر بصفتها «موضوعية» قد تكون في الواقع مشبعة بانحيازات غير معلنة.
وخطورة ما حدث مع «غروك» ليست في النموذج ذاته بقدر ما هي في الدرس الذي يقدّمه: إذا استطاع طرف واحد أن يوجّه نموذجاً بهذه القوة نحو سرديته الخاصة دون مقاومة أو مساءلة، فإن الأبواب تُفتح على مصراعيها أمام أنظمة أخرى أكثر قوة وتأثيراً لتكرار الأمر ذاته، بشكل أعمق وأذكى وأكثر تمويهاً. وهنا يصبح الخطر مضاعفاً، لأن الذكاء الاصطناعي لن يبدو ملوّناً بوضوح، بل سيبدو محايداً بينما هو في الحقيقة مُصاغ بعناية لخدمة رؤية محددة. لقد قدّم «غروك» أول إنذار جدي بأن معركة الحياد الرقمي لن تكون معركة بسيطة، وأن الصراع لن يكون بين أفكار فقط، بل بين مصالح كبرى تحاول أن تسيطر على كيفية تشكّل الحقيقة في وعي الناس. وإذا كان نموذج واحد يمكن توجيهه لخدمة رواية سياسية بعينها، فماذا سيحدث عندما تتوسع هذه النماذج وتصبح المصدر الأساسي للمعلومات عند ملايين البشر؟ وكيف سيكون شكل النقاش العام عندما تصوغ الآلات ـ لا البشر ـ اتجاهاته وفقاً لإرادة الأقوياء؟
هل يمكن للذكاء الاصطناعي أن يصبح يوماً ما حرّاً وموضوعياً حقاً، أم سيظل أداة بيد من يملك القدرة على برمجته وصياغة حدوده ورسم اتجاهاته؟
الحقيقة أن الذكاء الاصطناعي، كما هو اليوم، لا يتمتع باستقلالية تامة. فهو يعمل ضمن قواعد وضعها بشر، ولهذا تعكس إجاباته في بعض الأحيان قيماً سياسية أو اجتماعية أو ثقافية فرضها المطورون أو الشركات أو المنصات التي تستضيفه. وحتى في الحالات التي يبدو فيها حيادياً، فإن «تحيز البيانات» التي دُرّب عليها كفيل بخلق ميل غير معلن نحو سرديات معينة وتهميش أخرى. فعندما تُغمر النماذج بكم هائل من رواية مسيطرة، وتتراجع السرديات المعارضة أو الأقل شهرة، تصبح الإجابة منحازة من حيث لا يشعر المستخدم.
إن استقلالية الذكاء الاصطناعي في القضايا السياسية لن تتحقق إلا إذا تحققت شروط صعبة: شفافية في مصادر المعلومات، تنوع حقيقي في البيانات، عدم خضوع الشركات المطورة لضغوط سياسية أو اقتصادية، وإتاحة المجال للنماذج كي تعرض أكثر من رواية دون خوف أو تقييد. لكن طالما ظل الذكاء الاصطناعي خاضعاً لمراكز قوة تمتلك المال والتقنية والبنية التحتية، فإن فكرة «الحياد التام» ستبقى بعيدة المنال.
وهنا يبرز الدور الأخطر: مستقبل الخطاب العام. فإذا تحوّل الذكاء الاصطناعي إلى أداة تُعيد إنتاج رؤية الأقوياء فقط، فإن ملايين المستخدمين سيتلقون سردية واحدة دون أن يدركوا أن ما يسمعونه ليس معرفة موضوعية، بل معرفة مصمَّمة ومُصفاة ومختارة بعناية. إن الخطر لا يكمن فقط في الإجابة الخاطئة، بل في الإجابة الناقصة، والإجابة التي تُخفي روايات أخرى دون أن تُظهر أنها أخفت شيئاً.
وهكذا يصبح واجب المستخدمين ـ وخاصة المثقفين والإعلاميين والباحثين ـ ألا يقبلوا بما يقوله الذكاء الاصطناعي كحقيقة مطلقة، بل كمدخل للنقاش والتفكير والتحليل، وأن يطالبوا بشفافية أكبر من الشركات المطورة، وأن يدافعوا عن حقهم في الوصول إلى معرفة متعددة لا معرفة أحادية.
وفي النهاية، يبقى السؤال الأكبر معلقاً: هل يمكن للذكاء الاصطناعي أن يصبح يوماً ما حرّاً وموضوعياً حقاً، أم سيظل أداة بيد من يملك القدرة على برمجته وصياغة حدوده ورسم اتجاهاته؟ وهل نحن مستعدون لحماية المعرفة من الاحتكار الخفي الذي قد تمارسه خوارزميات تبدو محايدة لكنها تحمل بين أسطرها بصمة القوة؟
الجواب ليس بسيطاً، لكنه واضح في ملامحه الأولى: الذكاء الاصطناعي اليوم ليس حراً تماماً، ولن يكون كذلك ما لم يُحاسَب من يصنعه. وإذا لم نشارك نحن في صياغة قواعد اللعبة، فسيكتبها الآخرون نيابة عنا، وسيكتبون معها المستقبل وحتى التاريخ.
كاتب واعلامي سوري
- القدس العربي























