مع التوسع المتسارع في دعم اللغة العربية داخل نماذج الذكاء الاصطناعي العالمية، بات السؤال الأكبر ليس: هل أصبحت العربية موجودة؟ بل: هل يمكن الوثوق بهذه النماذج عندما تستخدم لغتنا، وتُخاطب مجتمعاتنا، وتُجيب عن أسئلتنا الدينية والثقافية؟
نُثمّن بصدق جهود شركات كبرى مثل ChatGPT وMicrosoft Copilot وGemini وغيرها، والتي أضافت دعماً ملحوظاً للغة العربية، وساهمت في تقريب تقنيات الذكاء الاصطناعي من ملايين المستخدمين العرب. كما ظهرت نماذج عربية جديدة، بعضها مبني من الصفر، وبعضها مستند إلى نماذج مفتوحة أو عالمية. لكن في غمرة هذا التطور، هناك سؤال غائب لكنه جوهري: من يقيّم مدى صحة هذا المحتوى؟ ومن يتحمل مسؤولية الأخطاء إذا أساءت النماذج فهم اللغة، أو حرّفت المعلومة، أو أساءت تفسير الدين والثقافة؟
هذا المقال يُبنى على ما تم طرحه في مقال سابق بعنوان: “إطار تقييم الذكاء الاصطناعي والنماذج اللغوية العربية: من اللغة إلى الثقافة” والذي قدم خمسة عشر ركيزة واضحة لتقييم النماذج اللغوية من حيث النحو، الصرف، البلاغة، الحساسية الثقافية والدينية، والتغطية الموضوعية وغيرها.
لكن إن كان ذلك المقال قد أجاب عن سؤال: “ماذا نقيم؟” فهذا المقال يُجيب عن سؤال أعمق: “من الذي يجب أن يُقيّم؟ ومن يتحمّل المسؤولية؟”
نحن لا ندعو إلى تعطيل التقدم التقني، بل ندعو إلى تنظيمه وتوثيقه من خلال منظومة بشرية ومؤسسية موثوقة. فالتقنية بلا مراجعة بشرية، خاصة في المحتوى العربي، ليست تقدماً بل مخاطرة.
نموذج ChatGPT ليس كافياً
النموذج الحالي الذي تتبعه معظم الشركات لبناء نماذج لغوية كبرى والذي يتمثل في جمع كميات هائلة من البيانات من الإنترنت، ثم تدريب النموذج عليها لا يضمن بالضرورة صحة أو دقة أو احترام هذه البيانات، لا لغوياً ولا ثقافياً ولا دينياً.
حتى النماذج الرائدة مثل ChatGPT وGemini، ورغم دقتها في كثير من المجالات، لم تُفصح عن مصادر بياناتها بشكل منهجي، ولا عن الجهات التعليمية أو البحثية التي راجعت تلك المصادر أو صادقت عليها.
إذا كانت هذه هي الحال في اللغة الإنجليزية، فكيف سيكون الوضع مع اللغة العربية التي تعاني أصلًا من نقص التمثيل، وتعقيد الصياغات، وتنوّع السياقات، والحساسية العالية في قضايا الدين والمجتمع؟
الاعتماد على نموذج مثل ChatGPT أو غيره كنقطة انطلاق هو خطوة ممتازة. لكن الاكتفاء بها دون هيئات مراجعة بشرية عربية مستقلة هو أمر خطير، لأنه يفتح الباب لأخطاء قد تبدو صغيرة في ظاهرها، لكنها تؤثر على المفهوم، والسياق، والمجتمع.
نحتاج إلى ما هو أكثر من مجرد تقنيات متقدمة. نحتاج إلى إرادة واعية ومؤسساتية تراقب وتراجع وتصحّح وتوجّه، حتى يكون الذكاء الاصطناعي أداة معرفة لا أداة تشويه.
البشر في الحلقة: ليس خياراً بل ضرورة
في سياق الذكاء الاصطناعي، تُستخدم عبارة “Human-in-the-Loop” للإشارة إلى دور البشر في مراجعة وتحسين أداء النماذج. لكن عندما يتعلق الأمر باللغة العربية، فوجود الإنسان في الحلقة ليس ميزة إضافية بل ضرورة وجودية.
نحن بحاجة إلى خبراء حقيقيين، معتمدين، ومؤسسيين، من وزارات الثقافة، الجامعات، مجامع اللغة، وهيئات الفتوى، والمؤسسات التعليمية. هؤلاء وحدهم قادرون على:
- اعتماد النحو والصرف الصحيح في المحتوى المُنتج.
- مراجعة الحساسية الثقافية والدينية.
- التحقق من تمثيل اللهجات بصورة واقعية ومحترمة.
- مراجعة المصطلحات التخصصية في المجالات الطبية، القانونية، الشرعية، وغيرها.
هذا النوع من التقييم لا يمكن أن يُنفذ داخل مختبرات الذكاء الاصطناعي أو من قبل مهندسين وخبراء تقنيين. بل يجب أن يكون عملاً عربياً مؤسسياً موحداً، يُعطي لكل دولة خصوصيتها، ولكل لهجة مكانتها، ولكل مرجعية علمية وثقافية قيمتها.
نحن لا نطلب من شركات الذكاء الاصطناعي العالمية أن تكون خبيرة بالفقه الإسلامي أو اللهجة اليمنية أو الصياغة القانونية المصرية. لكننا نطلب أن تسمح لتلك المرجعيات بأن تكون جزءًا من عملية التقييم والاعتماد.
الإطار موجود حان وقت تطبيقه
في المقال السابق، تم تقديم إطار شامل لتقييم نماذج الذكاء الاصطناعي باللغة العربية، يتكوّن من خمسة عشر ركيزة واضحة تغطي النحو، الصرف، البلاغة، المعجم، اللهجات، الحساسية الثقافية والدينية، التغطية الموضوعية، المنطق، الشفافية، وغيرها.
كان ذلك الإطار إجابة واضحة على سؤال: ما الذي يجب تقييمه؟
واليوم، ومع اتساع نطاق النماذج العربية، يصبح السؤال التالي هو الأهم: كيف نُفعّل هذا الإطار؟ ومن الجهة التي يجب أن تطبّقه؟
التوصيات واضحة:
- يجب أن تتبنى الجهات الرسمية والمؤسسات الأكاديمية هذا الإطار وتحوّله إلى مرجع عملي.
- يجب أن تلتزم شركات الذكاء الاصطناعي بالتعاون مع هذه الجهات عند تطوير أو إطلاق أي نموذج موجه للمستخدم العربي.
- يجب أن تُدار عمليات التقييم والاعتماد من قِبل خبراء لغويين ودينيين وثقافيين، وليس عبر نماذج ذكاء اصطناعي أخرى.
امتلاك إطار نظري لا يكفي. ما لم يُطبّق هذا الإطار على أرض الواقع، ستظل النماذج تطرح محتوى قد يبدو لغويًا سليمًا ظاهريًا، لكنه مليء بالأخطاء المفاهيمية والسياقية العميقة.
الاعتماد الثقافي والديني: مسؤولية وطنية
حين تُسيء نماذج الذكاء الاصطناعي فهم أو تمثيل الدين أو الثقافة، فإن الضرر لا يكون لغوياً فقط، بل قد يكون اجتماعياً، عقائدياً، وأخلاقياً. هنا لا تكفي الأعذار التقنية ولا تبريرات “البيانات غير الكافية”.
من المسؤول عندما يُسيء النموذج فهم فتوى؟ أو يسيء تفسير عادة مجتمعية؟ أو يُنتج محتوى فيه سخرية أو تبسيط مخل لتقاليد ثقافية؟ الجواب واضح: غياب جهة اعتماد رسمية هو الخطر الحقيقي.
يجب أن يكون هناك دور فاعل ومباشر لـ:
- وزارات الثقافة والتعليم.
- هيئات الشؤون الدينية والفتوى.
- المجامع اللغوية والمؤسسات البحثية.
هذه الجهات ليست فقط قادرة على مراجعة المحتوى، بل أيضاً على تحديد المعايير التي يجب أن تلتزم بها النماذج، وتقديم تغذية راجعة موضوعية ومستمرة، وتصحيح الأخطاء الخطرة قبل وصولها إلى المستخدم.
تخيّل أن تكون هناك علامة “معتمدة من وزارة الأوقاف” أو “موثقة من مجمع اللغة العربية” تظهر في واجهة النموذج عندما يُجيب عن سؤال ديني أو لغوي… هذه ليست رفاهية، بل ضرورة في ظل ما نشهده من انتشار واسع لهذه النماذج واستخدامها من مختلف الفئات العمرية والثقافية.
التجزئة أو التوحيد: القرار بأيدينا
الوضع الحالي في العالم العربي يعاني من تجزئة الجهود في مجال الذكاء الاصطناعي الداعم للغة والثقافة العربية. فكل جهة تعمل بمفردها، وكل فريق يطلق نموذجًا دون مرجعية موحدة، وكل دولة تسير بمنهج مختلف أو بدون منهج أصلاً.
هذه الفوضى التنظيمية، رغم ما تحمله من حماس ومبادرات جيدة، ستؤدي إلى نتائج متضاربة، ونماذج غير متسقة، بل وقد تكرّس التحيّزات أو الأخطاء الثقافية بدل تصحيحها.
في المقابل، التوحيد لا يعني المركزية المطلقة، بل يعني:
- وضع إطار عربي مشترك تتفق عليه الدول والمؤسسات والجامعات.
- احترام التنوع المحلي ضمن مظلة مرجعية موثقة.
- التكامل بين الخبراء في مختلف الدول، بحيث يراجع النموذج من خبراء سعوديين، ومصريين، ومغاربة، وإماراتيين، وسودانيين… وغيرهم، كلٌ حسب اختصاصه.
لدينا الفرصة لصناعة نموذج عربي موثوق وعابر للحدود، يضع المستخدم العربي في المركز، ويُقدّم نموذجًا عالميًا للتكامل بين التقنية والهوية. لكن هذه الفرصة إما أن نستثمرها الآن أو نخسرها إلى الأبد.
فرصة لتعليم الأجيال بثقة
أصبحت نماذج الذكاء الاصطناعي اليوم جزءًا من حياة الناس اليومية، وخصوصًا بين الأجيال الجديدة. فبدلًا من البحث في الكتب أو الرجوع إلى المعلمين، أصبح السؤال يُوجَّه مباشرة إلى المساعد الذكي، سواء في مواضيع اللغة أو الدين أو الثقافة أو التاريخ.
هذه الظاهرة ليست سلبية بحد ذاتها، بل بالعكس، هي فرصة استثنائية إذا أحسنا استثمارها.
تخيّل لو أصبحت هذه النماذج موثقة ومعتمدة من جهات لغوية وثقافية ودينية رسمية:
- يمكن للطلاب تعلّم النحو والصرف والإملاء بثقة.
- يمكن للناطقين بغير العربية تعلّم لغة سليمة مبنية على أسس علمية.
- يمكن لأبناء الجاليات العربية حول العالم ربط أبنائهم بالثقافة والدين من خلال تجربة مدعومة ومضمونة.
بل إن الذكاء الاصطناعي المعتمد قد يتحوّل إلى رافعة تعليمية وثقافية تعيد إحياء الاهتمام باللغة العربية في زمن عزف فيه كثيرون عن دراستها.
لكن دون توثيق ومراجعة بشرية مؤسسية، سيبقى الاعتماد على هذه النماذج محفوفًا بالمخاطر، وستبقى الإجابات تُقدَّم بلا ضمان، ولا مرجعية، ولا تصحيح.
لذلك، فإن توحيد الجهود واعتماد معايير موثوقة ليس فقط لحماية الهوية… بل لبناء جيل جديد يتعلّم بلغته بثقة.
الخوارزميات أيضاً تحتاج إلى مراجعة
حين نتحدث عن دعم اللغة العربية في نماذج الذكاء الاصطناعي، فإننا لا نقصد فقط إدخال البيانات العربية إلى الأنظمة، بل نقصد أيضًا ملاءمة البنية التقنية والخوارزميات نفسها مع طبيعة اللغة العربية.
معظم الخوارزميات التي بُنيت بها نماذج اللغة تم تطويرها في الأصل لخدمة اللغات ذات النظام اللاتيني، مثل الإنجليزية. هذه اللغات تختلف جوهريًا عن العربية من حيث:
- الجذور الثلاثية والاشتقاق.
- التشكيل وتغيّر المعنى حسب الحركات.
- السياق الثقافي والديني المرتبط بالكلمات.
- تعدد اللهجات والتباين بين الفصحى والعامية.
ولذلك، فإن الاعتماد على نفس الخوارزميات دون تعديل أو تطوير خاص قد يؤدي إلى تشويه المفاهيم أو إساءة فهم البنية اللغوية.
ما نحتاجه اليوم هو التفكير في:
- بناء خوارزميات جديدة تنطلق من خصوصية اللغة العربية.
- تحسين أدوات المعالجة مثل التقطيع، الإعراب، التشكيل، الترجمة.
- اختبار الخوارزميات الحالية على بيانات عربية حقيقية، بتدقيق خبراء لغويين وتقنيين معًا.
ليس المطلوب إعادة اختراع العجلة، بل صناعة عجلة تسير على أرضنا، بلغتنا، ووفق قواعدنا.
من المسؤول عندما يُخطئ الذكاء الاصطناعي؟
سؤال جوهري لا بد أن نطرحه بوضوح: عندما يُقدّم الذكاء الاصطناعي إجابة خاطئة أو مسيئة حول الدين أو الثقافة أو اللغة من نُحاسب؟
هل المسؤول هو الشركة التي طوّرت النموذج؟ أم المطوّر الذي جمع البيانات؟ أم غياب جهة رسمية كانت من المفترض أن تراجع وتوثّق هذا المحتوى؟
المشكلة أن المستخدم العادي لا يستطيع محاسبة النظام. فإذا أُسيء تمثيل فتوى، أو تم تحريف قاعدة نحوية، أو انتُقص من قيمة ثقافية أو دينية، فإن الضرر قد يقع على فئات واسعة من المجتمع، دون وجود جهة تتحمّل المسؤولية.
السبب الرئيسي هو غياب منظومة التوثيق والاعتماد. فنحن نترك النماذج تعتمد على مصادر غير واضحة، وتفسيرات آلية، وخوارزميات تحاول أن “تفهم” دون أن “تتحقق”.
وما يزيد الأمر تعقيداً أن بعض الأخطاء لا تأتي من البيانات فقط، بل من أساليب الاستنتاج الآلي أو الإبداع التوليدي الذي قد يركّب الجملة صحيحة لغوياً، لكنها خاطئة تماماً دينياً أو ثقافياً.
لذلك، وجود منظومة مراجعة بشرية مؤسسية لا يُعد رفاهية. بل هو الضمان الأخلاقي والمعرفي الوحيد لمحاسبة أي خطأ قد يقع، وتصحيحه قبل أن يتحول إلى أثر مجتمعي واسع.
الخلاصة: هذه مسؤوليتنا كعرب
لا يمكننا أن ننتظر من شركات الذكاء الاصطناعي العالمية أن تقوم نيابةً عنا بتوثيق اللغة العربية، أو مراجعة المحتوى الديني، أو فهم السياق الثقافي لكل دولة عربية.
نحن نملك ما لا تملكه تلك النماذج:
- الخبراء في اللغة، الدين، والثقافة.
- المؤسسات الرسمية القادرة على وضع المعايير.
- الوعي المجتمعي بخطورة الأخطاء الناتجة عن الذكاء الاصطناعي.
ما نحتاجه الآن هو الانتقال من رد الفعل إلى المبادرة، من النقد إلى البناء، من العشوائية إلى التنظيم. فالمحتوى العربي داخل نماذج الذكاء الاصطناعي لن يُصبح دقيقاً وآمناً إلا إذا تم تقييمه وتوثيقه ومراجعته من قِبل جهات بشرية مسؤولة.
وهذه ليست فقط مسؤولية تقنية، بل مسؤولية ثقافية وحضارية. نحن أمام فرصة نادرة لإعادة تشكيل حضور اللغة العربية في العصر الرقمي، وجعل الذكاء الاصطناعي أداة تمكين وهوية لا أداة تشويه وسطحية.
فلنقُد هذا التغيير نحن، بخبرائنا، بمؤسساتنا، بثقافتنا، وبإيماننا بأن الثقة لا تُبنى بالخوارزميات فقط بل بالإنسان.