إمكانات الذكاء الاصطناعي التوليدي: تساؤلات حاسمة تواجه الوكالات الحكومية

| مقالة

ملاحظة: إننا نبذل قصارى جهدنا للحفاظ على جميع التفاصيل الدقيقة عند ترجمة المقالة الإنجليزية الأصلية، ونعتذر عن أي جزئية مفقودة في الترجمة قد تلاحظونها من حين لآخر. نرحب بتعليقاتكم على البريد الإلكتروني التالي reader_input@mckinsey.com

اكتسبت أدوات الذكاء الاصطناعي التوليدي اهتمامًا عالميًا واسعًا خلال عام واحد فقط. ويُتوقع أن تصل قيمتها الاقتصادية إلى تريليونات الدولارات سنويًا. رغم ذلك، تزداد المخاوف لدى الشركات والحكومات في جميع أنحاء العالم بشأن المخاطر المرتبطة بها. وتقدم تكنولوجيا الذكاء الاصطناعي التوليدي للقادة الحكوميين فرصًا استثنائية لتوجيه مسار التنمية الاقتصادية الوطنية، كما هو موضح في (الشكل 1)، لكنهم يواجهون في الوقت ذاته عدة تحديات تتمثل في التحكم في تأثيراتها السلبية ووضع مبادئ توجيهية وقواعد صارمة لضمان استخدام هذه التكنولوجيا بشكل مسؤول.

تتجه العديد من الوكالات الحكومية نحو الاستفادة من التحولات التي باتت ممكنة بفضل تكنولوجيا الذكاء الاصطناعي التوليدي. لكن يظل تحديد أكثر المجالات التي يمكن أن تحقق فيها أفضل النتائج أمرًا معقدًا بسبب التطور السريع الذي تشهده هذه التكنولوجيا. ونستعرض في هذا المقال ثلاثة أسئلة جوهرية يجب على مؤسسات القطاع الحكومي النظر فيها قبل تحديد مجالات الاستثمار:

  • كيف يمكن للوكالات الحكومية التعامل مع المخاطر المحتملة المرتبطة بتكنولوجيا الذكاء الاصطناعي التوليدي؟
  • ما هي الخطوات التي يمكن لمؤسسات القطاع الحكومي اتخاذها لتحسين خدماتها من خلال الذكاء الاصطناعي التوليدي ؟
  • هل يجب على الحكومات تطوير نماذج أساسية محلية لتطبيقات الذكاء الاصطناعي التوليدي؟

وفي النهاية، نقدم خطة تضم ثماني خطوات للمؤسسات الحكومية التي ترغب في التوجه نحو استخدام أدوات الذكاء الاصطناعي التوليدي.

1. كيف يمكن للوكالات الحكومية التعامل مع المخاطر المحتملة المرتبطة بتكنولوجيا الذكاء الاصطناعي التوليدي؟

أصبحت المخاطر الناجمة عن الذكاء الاصطناعي التوليدي، مثل عدم القدرة على التنبؤ وعدم الدقة والتحيز، معروفة الآن على نطاق واسع. وتواجه المؤسسات الحكومية تحديات مختلفة عن تلك التي يواجهها القطاع الخاص، مثل احتمالية استخدام هذه التكنولوجيا في نشر الدعاية السياسية أو تهديد الأمن القومي. كما يوجد خطر تسريب أو سرقة البيانات الحكومية الحساسة إذا أدخلها الموظفون الحكوميون في أنظمة الذكاء الاصطناعي عن طريق الخطأ.

المزيد من الرؤى والتقارير من ماكنزي باللغة العربية

شاهد مجموعة المقالات الخاصة بنا باللغة العربية، واشترك في النشرة الإخبارية العربية الشهرية

تصفح المجموعة

وقد تتضمن بعض نتائج نماذج الذكاء الاصطناعي التوليدي معلومات غير دقيقة، فيما يُعرف بظاهرة "الهلوسة"، وهو ما قد يؤثر سلبًا على ثقة الجمهور في الخدمات الحكومية التي تعتمد على هذه التقنيات. وتواجه المؤسسات الحكومية تحديات تتعلق بضمان شفافية الذكاء الاصطناعي التوليدي والتعقيدات في توضيح أساسياته والمنطق وراء قرارات هذه النماذج ونتائجها كما هو الحال مع العديد من مؤسسات القطاع الخاص. نتيجة لذلك، قد تنجم عدة عواقب مثل تراجع ثقة الجمهور في الخدمات الحكومية القائمة على الذكاء الاصطناعي التوليدي وعدم وضوح المسؤولية عن التأثيرات غير المقصودة. علاوة على ذلك، تواجه الجهات الحكومية، مثل جميع المؤسسات الأخرى، مخاطر تتمثل في استخدام المجرمين لتكنولوجيا الذكاء الاصطناعي التوليدي لشن هجمات سيبرانية خطيرة.

وللتعامل مع هذه المخاطر، أطقلت دول عدة مثل الولايات المتحدة وأستراليا والصين مبادرات لإنشاء أُطر تنظيمية وسياسية للذكاء الاصطناعي التوليدي. وقد تضمنت بعض هذه الجهود توسيع نطاق اللوائح الخاصة بالذكاء الاصطناعي لتشمل الذكاء الاصطناعي التوليدي. وبدوره، يقود الاتحاد الأوروبي جهدًا عالميًا لوضع ضمانات لأي منتج أو خدمة تستخدم أنظمة الذكاء الاصطناعي. وفي هذا السياق، صاغت العديد من الوكالات الحكومية الأمريكية تشريعات وإجراءات تنفيذية وسياسات مرتبطة بالذكاء الاصطناعي تهدف إلى الحد من المخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي، وذلك من خلال التركيز على جوانبها السلبية والشفافية في استخدام الذكاء الاصطناعي في القطاعات الحكومية ومعالجة المسائل الأخلاقية المتعلقة باستخدامه.

مع ذلك، فإن هذه الجهود الرامية إلى التخفيف من المخاطر لا تزال في بداياتها في مختلف أنحاء العالم. ونظرًا للتطور السريع الذي يشهده الذكاء الاصطناعي التوليدي ، يتحتم على الحكومات تحديث لوائحها التنظيمية بشكل مستمر من أجل مواكبة هذه التغييرات. وشرعت بعض المؤسسات الحكومية في إطلاق برامج توعية مستمرة لأصحاب الشأن، خاصة المستخدمين النهائيين، لتعريفهم بمخاطر الذكاء الاصطناعي التوليدي وطرق التعامل معها. على سبيل المثال، أصدر مكتب الرقمنة والبيانات المركزي في المملكة المتحدة دليلاً لموظفي الخدمة المدنية يتناول طرق الاستخدام الآمن والمدروس لأدوات الذكاء الاصطناعي التوليدي. وعلى نحو مماثل، تقدم وكالة التحول الرقمي ووزارة الصناعة والعلوم والموارد في أستراليا إرشادات مؤقتة للوكالات الحكومية حول الاستخدام المسؤول لمنصات الذكاء الاصطناعي التوليدي المتاحة للجمهور، مع التركيز على الاستخدام الأخلاقي للذكاء الاصطناعي وقضايا الأمان والرقابة البشرية على هذه التكنولوجيا.

2. ما هي الخطوات التي يمكن لمؤسسات القطاع الحكومي اتخاذها لتحسين خدماتها من خلال الذكاء الاصطناعي التوليدي؟

نظرًا لأن الوكالات الحكومية هي الجهات الرئيسية في تقديم الخدمات للجمهور، من المتوقع أن تولي اهتمامًا خاصًا بتحسين هذه الخدمات من خلال استخدام تكنولوجيا الذكاء الاصطناعي كأولوية رئيسية. ويمكن أن يمثل إطار عمل "4Cs" الذي نقترحه نقطة انطلاق مثالية، حيث يشمل أربع فئات رئيسية مشتركة بين مختلف القطاعات وهي: تلخيص وتوليف المحتوى، والترميز والبرمجيات، والتفاعل مع العملاء وإنشاء المحتوى، كما هو موضح في (الشكل 2). ويُلاحظ أن معظم تطبيقات الذكاء الاصطناعي التوليدي المستخدمة حتى الآن تندرج تحت إحدى هذه الفئات، مما يجعلها متوافقة مع القطاعين الحكومي والخاص على حد سواء.

  • تلخيص وتوليف المحتوى: تركز هذه الفئة على استخلاص الأفكار الرئيسية من مجموعة كبيرة من المعلومات. مثال على ذلك، طوّرت شركة "جوف تك" في سنغافورة تطبيق "بير" الذي يعمل على تلخيص النصوص وإعداد تقارير للاستخدام الداخلي.
  • الترميز والبرمجيات: يمكن تسريع عملية تطوير البرمجيات وتعزيز إنتاجيتها عند استخدام الذكاء الاصطناعي التوليدي في كتابة الأكواد البرمجية وأتمتة الاختبارات. ويتطلب ذلك تحديد أولويات حالات الاستخدام بناءً على تأثيرها المحتمل وفعاليتها ومدى تعرضها للمخاطر. على سبيل المثال، تجري وزارة الخزانة البريطانية (وزارة الاقتصاد والمالية) تجارب على المساعد الشخصي القائم على الذكاء الاصطناعي المسمى بـــــ "جيت هاب كوبيلوت"، وهو برنامج يعتمد على الذكاء الاصطناعي ويقدم اقتراحات برمجية بهدف تسريع عملية تطوير البرمجيات.
  • التفاعل مع العملاء: يمكن أن تعزز تطبيقات الذكاء الاصطناعي التوليدي خدمات العملاء بشكل كبير. على سبيل المثال، يمكن لروبوتات الدردشة في الوكالات الحكومية الرد على استفسارات المقيمين وتقديم خدمات مخصصة لهم. وفي هذا السياق، أطلقت مدينة هايدلبرغ في ألمانيا روبو ت الدردشة "لومي" الذي يُعد أول مساعد رقمي للمواطنين في البلاد. ويمكّن هذا البرنامج الأفراد من الحصول على مختلف الخدمات الحكومية بسهولة ويسر مثل تقديم طلبات لاستخراج بطاقة هوية جديدة ورخص القيادة وتسجيل مكان الإقامة.
  • إنشاء المحتوى: يمكن أن يساهم الذكاء الاصطناعي التوليدي في إنتاج مجموعة واسعة ومتنوعة من المحتوى، بما في ذلك الرسائل الإلكترونية ومنشورات مواقع التواصل الاجتماعي والعقود والمقترحات. على سبيل المثال، قامت وزارة الدفاع الأمريكية بتطوير أداة مدعومة بالذكاء الاصطناعي تُعرف بـــ "Acqbot" والتي تُستخدم لكتابة العقود بهدف تسهيل وتسريع عمليات الشراء.

تلعب تطبيقات الذكاء الاصطناعي التوليدي دورًا محوريًا في تسهيل العديد من الخدمات الحكومية في مختلف القطاعات مثل التعليم والرعاية الصحية والدفاع والاستخبارات والتطوير الحضري (كما هو موضح أعلاه في "استخدام الذكاء الاصطناعي التوليدي في تطوير الوظائف والخدمات الحكومية"). وتستخدم الهيئات الحكومية العاملة في هذه القطاعات تكنولوجيا الذكاء الاصطناعي التوليدي بشكل فعّال في أداء مهامها الخارجية والداخلية التي تندرج ضمن الفئات المشمولة في إطار العمل الذي أشرنا إليه سابقًا، كما موضح في (الشكل 3 والشكل 4). فعلى سبيل المثال، يمكن للذكاء الاصطناعي التوليدي مساعدة الأفراد في الحصول على الخدمات الحكومية المختلفة وترجمات لغوية فورية من خلال التطبيقات التي تتعامل بشكل مباشر مع العملاء. أما داخل الهيئات الحكومية، يساهم الذكاء الاصطناعي التوليدي في إنشاء المحتوى الإبداعي مثل الخطب والمراسلات الرسمية وتبسيط المستندات الرسمية المعقدة، إلى جانب إعداد التقارير المالية ومؤشرات الأداء الرئيسية بشكل منتظم وفي المواعيد المحددة.

3. هل يجب على الحكومات تطوير نماذج أساسية محلية لتطبيقات الذكاء الاصطناعي التوليدي؟

قد تسعى بعض الحكومات إلى تطوير نماذج أساسية في مجال الذكاء الاصطناعي التوليدي التي تمثل الأساس الذي تُبنى عليه تطبيقات الذكاء الاصطناعي التوليدي. ومع ذلك، يجب أن يدرك المسؤولون في المؤسسات الحكومية حقيقة أن هذه المهمة تتطلب تخصيص الكثير من الوقت والموارد. وتتضمن العقبات الرئيسية التي تواجه الحكومات نقص المواهب المتخصصة في بناء نماذج الذكاء الاصطناعي التوليدي وتطويرها وصيانتها والحاجة إلى قدرات حوسبة هائلة، وكذلك الخبرة في التعامل مع المخاطر المحتملة المرتبطة بتطوير هذه النماذج وتشغيلها. وفي الوقت الحالي، يقود عدد قليل من كبرى شركات التكنولوجيا في القطاع الخاص (شركات "كوهير" و"جوجل" و"ميتا") كافة الجهود المبذولة في هذا المجال، بالإضافة إلى إطلاق مبادرات المصدر المفتوح التي تزداد شعبيتها بسرعة (مثل "هجينج فيس" و"ستابيليتي إيه آي" و"ألباكا").

وعلى عكس كبرى الشركات الخاصة العالمية في قطاع التكنولوجيا، تفتقر المؤسسات الحكومية إلى الإمكانيات التي تساعدها على تطوير نماذج الذكاء الاصطناعي الأساسية ومواجهة المخاطر المرتبطة بذلك في الوقت ذاته. فعلى سبيل المثال، قد تسفر انتهاكات قوانين حقوق الملكية الفكرية وقوانين الطبع والنشر عن تعرض هذه المؤسسات للمساءلة القانونية. كما تؤدي عدم قدرة الذكاء الاصطناعي التوليدي على تحديد المصادر بدقة في بعض الأحيان إلى صعوبة اكتشاف الانتهاكات المحتملة لحقوق الطبع والنشر. وتشمل الآثار القانونية أيضًا المحتوى الذي يتم التلاعب فيه، مثل النصوص والصور والصوت ومقاطع الفيديو، وقد تستخدمه الجهات الفاعلة الخبيثة لأغراض التهديد أو الترهيب أو تقويض قدرات الأفراد والمؤسسات. وهناك أيضًا الخطر المتمثل في التصرف غير القانوني أو غير الأخلاقي نتيجة استغلال أوجه التحيز المتأصلة في البيانات التي جُمعت في نماذج أساسية معينة. ولذلك، قررت بعض الحكومات، مثل حكومتي أيسلندا وفنلندا، إقامة شراكة مع مزودي نماذج اللغات الكبيرة بهدف استخدام نماذجهم القائمة وتطويرها بما يتناسب مع احتياجاتها الخاصة من خلال إضافة الرؤى والبيانات الخاصة بها.

ثماني خطوات رئيسية للبدء في استخدام تكنولوجيا الذكاء الاصطناعي التوليدي

نقترح فيما يلي خطة تضم ثماني خطوات للمؤسسات الحكومية التي تستهل خطواتها الأولى نحو استخدام الذكاء الاصطناعي التوليدي:

  1. تقييم مخاطر المؤسسة: حدّد عوامل الخطر التي تتعرض لها مؤسستك، وذلك من خلال وضع خطة للتخفيف من مخاطر استخدام الذكاء الاصطناعي التوليدي. ويمكن تحقيق ذلك عبر السياسات الداخلية والمبادئ التوجيهية وتنظيم دورات للتوعية.
  2. التعرف على حالات الاستخدام وتحديد أولوياتها: لا تتطلب جميع المهام استخدام الذكاء الاصطناعي التوليدي، حيث يمكن للمؤسسات الحكومية الاستفادة من إطار العمل "4Cs" لإعداد قائمة تضم حالات الاستخدام المحتملة، ثم ترتيبها حسب الأهمية بناءً على تأثيرها المتوقع وجدواها، مع تجنب الخطوات التي تنطوي على مخاطر عالية أو تتسم بقدر محدود من التسامح مع الأخطاء.
  3. اختيار النموذج الأساسي وتحديث البنية التحتية التقنية في حالات الضرورة: تبدأ معظم مؤسسات القطاع العام بتطبيق نماذج اللغات الكبيرة الجاهزة وتعديلها من خلال إدخال البيانات الخاصة بها ودمجها مع الأنظمة الداخلية لتحقيق نتائج تناسب احتياجاتها. وفي حالات نادرة، نرى بعض المؤسسات الحكومية تقوم بتطوير نموذجًا جديدًا من البداية وتدريبه. وعندما يحدث هذا، غالبًا ما يكون الدافع هو الرغبة في تطوير الأصول المحلية أو معالجة المسائل المتعلقة بسيادة البيانات أو محاولة الحد من الاعتماد على شركات التكنولوجيا الخاصة.
  4. الحرص على استقطاب الكفاءات المطلوبة: أصبح منصب "رئيس الذكاء الاصطناعي" أحد الوظائف المهمة في الوقت الحالي. ويجب على الحكومات تعيين الأشخاص المؤهلين لهذا المنصب، حيث إنه يتطلب مسؤولاً تنفيذيًا قادرًا على تنسيق جميع الأنشطة المتعلقة بالذكاء الاصطناعي التوليدي والتصدي للمخاطر على نحو فعال. وفي السابق، لم تكن الحكومات تعين متخصصين في مجالات معينة مثل هندسة الذكاء الاصطناعي أو أخلاقيات الذكاء الاصطناعي أو الهندسة الفورية. لكن الآن أصبح من الضروري استحداث هذه الأدوار وتعيين الأشخاص المناسبين لها.
  5. تطوير تطبيقات الذكاء الاصطناعي التوليدي بالتعاون مع المستخدمين النهائيين: نظرًا لسرعة تطور تكنولوجيا الذكاء الاصطناعي، تعتبر مشاركة المستخدمين النهائيين منذ المراحل الأولى خطوة مهمة ليس فقط لتعريفهم بالخصوصية والأمان، بل أيضًا للحصول على آرائهم وتعليقاتهم التي تساهم في تحسين دقة استجابات نماذج اللغات الكبيرة وأدائها. على سبيل المثال، يمكن للمستخدمين تقييم جودة كل استجابة عن طريق وضع نقاط لها.
  6. تحكم البشر في الوقت الحالي على الأقل: نظرًا لأن تقنيات الذكاء الاصطناعي التوليدي لا تزال في طور النمو وتحتاج إلى تطبيق لوائح فعالة، من الأفضل للمؤسسات الحكومية أن تجعل المدراء البشر مسؤولين عن مهام التنفيذ واستخدام تطبيقات الذكاء الاصطناعي التوليدي لتنفيذ النماذج فقط، وليس للإشراف عليها أو تقييمها.
  7. إعداد خطة اتصالات شاملة: يجب إدراج التنويهات المتعلقة بإخلاء المسؤولية في جميع وسائل الاتصال لشرح القيود المتعلقة باستخدامات الذكاء الاصطناعي التوليدي وضمان استخدامه بطريقة آمنة وفعالة.
  8. ابدأ بخطوات صغيرة ثم توسع تدريجيًا: وفقًا للدراسة التي أجريناها، ترى 72% من المؤسسات الرائدة أن إدارة البيانات يمثل تحديًا رئيسيًا أمام توسيع نطاق استخدامات الذكاء الاصطناعي. وأشرنا في مقالنا الذي تناول كيفية توسيع برامج الذكاء الاصطناعي التوليدي إلى سبع خطوات أساسية ينبغي على المسؤولين عن البيانات اتباعها أثناء الانتقال من المرحلة التجريبية إلى مرحلة التوسع.
Explore a career with us