تدخل الشركات اليوم مرحلة جديدة في رحلتها مع الذكاء الاصطناعي التوليدي، حيث تفكر بجدية في كيفية استخدام هذه التقنية القوية بطرق مسؤولة ومربحة في آن واحد. وقد تحدثت نافرينا سينغ، المؤسسة والمديرة التنفيذية لشركة "Credo AI"، وضيفة حلقة اليوم من بودكاست "At the Edge"، عن الحلول التي تراها لتحقيق هذا التوازن، مشيرة إلى أن الحوكمة الجيدة وإشراف البشر المستمر هما المفتاح. وعلى هامش حوارها مع لورينا يي، أحد كبار الشركاء بماكنزي، شددت سينغ على أهمية .مراقبة وتقييم وإدارة المخاطر المرتبطة بالذكاء الاصطناعي، ليس فقط لحماية المجتمع، بل أيضًا لمنح الشركات ميزة تنافسية من خلال تعزيز ثقة العملاء واعتماد الذكاء الاصطناعي بشكل مسؤول ومربح.
أولوية الحوكمة في تطوير الذكاء الاصطناعي
لورينا يي: "نافرينا"، نحن نشهد زخمًا هائلًا في الاستثمارات والاهتمام المتزايد بمجال الذكاء الاصطناعي، ولكن في الوقت نفسه نرى ترددًا كبيرًا، حيث تتوقف الشركات لتسأل نفسها: كيف يمكننا تبنّي هذه التقنية بشكلٍ مسؤول؟ فعلى سبيل المثال، أنتِ أنشأتِ شركة "Credo AI" بهدف مساعدة المؤسسات على التكيف مع هذا التطور السريع والمستمر. فكيف يمكن للشركات أن توازن بين مواكبة الابتكار بوتيرةٍ سريعة من جهة، وضمان استخدام الذكاء الاصطناعي بطريقة آمنة ومسؤولة من جهة أخرى؟
نافرينا سينغ: يا له من سؤال رائع، لورينا. نحن نؤمن بأن الحل يكمن في الحوكمة الجيدة للذكاء الاصطناعي؛ فهي التي تمكننا من تحقيق نتائج مسؤولة وآمنة لهذه التقنية. عندما نتعامل مع تكنولوجيا بهذه القوة، تمتد آثارها إلى مجالات الأعمال والمجتمع والعالم بأسره بطرق لم نكن نتخيلها من قبل، يظهر سؤال أساسي ألا وهو: هل نحن نفهم هذه التقنية بعمق كافٍ؟ هذا الفهم هو ما يساعدنا على توجيه استخدام الذكاء الاصطناعي نحو أهداف تخدم الصالح العام وتضمن المسؤولية.
إن فهم هذه التقنية يعني أننا بحاجة إلى طرح أسئلة أساسية. فعلى سبيل المثال، هل نحن نتحكم بشكل جيد على ما قد يكون مجهولاً لدينا تماماً؟ وهل نحن واعون فعلاً للمخاطر التي قد تصاحب هذه التقنية؟ كذلك، يتطلب الأمر النظر في نوع الآليات الرقابية التي وضعناها لنضمن أننا نحقق النتائج التجارية التي نطمح إليها. ببساطة، يتعلق الأمر بتقييم المخاطر بجانب الفرص، والتأكد من أننا نملك المعلومات المناسبة التي تمكننا من اتخاذ القرارات الصحيحة في الوقت المناسب، مع فهم واضح للإرشادات والضوابط الضرورية لضمان الاستخدام الآمن والفعال للذكاء الاصطناعي.
لورينا يي: تحمل هذه المفاهيم في طياتها أبعادًا كبيرة ومعقدة، لذا دعينا نأخذها خطوة بخطوة لتبسيطها وفهمها بوضوح. فإذا أردنا أن نبسط الأمور، فما الذي يعنيه مصطلح حوكمة الذكاء الاصطناعي؟
نافرينا سينغ: الذكاء الاصطناعي المسؤول يمثل النتيجة النهائية التي تسعى كل مؤسسة إلى تحقيقها وفق رؤيتها الخاصة، بينما مصطلح حوكمة الذكاء الاصطناعي هو الأسلوب أو الممارسة التي تُمكّن المؤسسات من الوصول إلى هذه النتيجة. بعبارة أخرى، الحوكمة هي الآلية التي تضع الأسس والمعايير للوصول إلى ذكاء اصطناعي يحقق أهداف المؤسسة بشكل مسؤول.
لورينا يي: غالبًا ما يستخدم الأشخاص مصطلح "وظيفة الامتثال" للإشارة إلى عملية التأكد من النتائج، ثم اتخاذ الإجراءات اللازمة لمعالجة أي مشاكل تظهر بعد التنفيذ. فهي تعني القسم أو النشاط داخل المؤسسة المسؤول عن التأكد من أن جميع العمليات والإجراءات تتماشى مع القوانين والمعايير التنظيمية وأيضًا السياسات الداخلية للشركة. وظيفة الامتثال تهدف إلى مراقبة النتائج وتصحيح أي انحرافات عن اللوائح والمعايير، وضمان أن المؤسسة تعمل بشكل قانوني وأخلاقي، مما يقلل من المخاطر المحتملة ويحمي سمعتها ومكانتها القانونية. لكنكِ تتحدثين عن مفهوم مختلف، وهو أننا يمكننا دمج الحوكمة والأنظمة والأدوات من البداية كجزء أساسي من عملية بناء النماذج وتطوير الحلول في مؤسساتنا. هل يمكنكِ توضيح هذه الفكرة بشكل أعمق؟ لأن هذا النهج يبدو جديدًا ويسبق خطوات التصحيح التقليدية.
نافرينا سينغ: بكل تأكيد، إن أنظمة الذكاء الاصطناعي ليست مجرد أنظمة تقنية؛ بل هي أنظمة اجتماعية-تقنية، مما يعني أن تأثيراتها تتجاوز التحديات التقنية لتصل إلى تأثيرات واسعة على المجتمع بأسره. فعلى سبيل المثال، يمكن لهذه الأنظمة أن تُستخدم في مجالات مثل اختيار الموظفين، أو حتى تعزيز القدرات العسكرية، وهو ما يجعل تأثيراتها ذات أبعاد حساسة على العدالة والأمان والمسؤولية الاجتماعية. لهذا السبب، عندما نتعامل مع تكنولوجيا لها تأثيرات ونتائج اجتماعية وتقنية مترابطة، من الضروري أن نفكر أولاً في كيفية ضبط استخدامها ووضع آليات الحوكمة المناسبة لها منذ البداية، بدلاً من أن تكون الحوكمة فكرة تأتي لاحقاً أو مجرد خطوة لمعالجة المشاكل بعد ظهورها. ببساطة، يجب أن تكون حوكمة الذكاء الاصطناعي نقطة البداية لأي تطوير تقني لضمان استخدام آمن ومسؤول.
النقطة الأخرى التي أود التأكيد عليها هي الفارق الكبير الذي يميز الذكاء الاصطناعي، بدءًا من سرعة التطور المذهلة التي تشهدها قدراته الجديدة باستمرار، إلى انتشاره الواسع ليشمل كل أنواع المؤسسات ومختلف مجالات الاستخدام، وأخيراً التوسع الكبير في تطبيقاته على نطاق واسع داخل الشركات. هذه العوامل الثلاثة تغيّر مفهوم حوكمة الذكاء الاصطناعي من مجرد وظيفة امتثال ومطابقة للقوانين إلى ميزة تنافسية بحد ذاتها. فاليوم، الشركات التي تدرك أهمية الحوكمة وتستثمر في أنظمة رقابة فعّالة للذكاء الاصطناعي لديها فرصة ليس فقط لتفادي المخاطر، بل أيضاً لزيادة قدرتها التنافسية وتقديم قيمة مضافة في السوق.
مزايا تبني نهج " الحوكمة أولًا"
لورينا يي: في ظل التغيرات السريعة التي يشهدها مجال الذكاء الاصطناعي، هناك شركات نجحت في مواكبة هذا التطور، وجعلت من حوكمة الذكاء الاصطناعي لديها نقطة قوة تنافسية. كيف استطاعت هذه الشركات خلال العام الماضي تحويل الحوكمة إلى ميزة تنافسية ملموسة؟ وما الأثر الذي انعكس على أدائها في السوق بفضل هذا النهج؟
نافرينا سينغ: المؤسسات التي تحاول فعلًا اتخاذ الخطوات الصحيحة في مجال الذكاء الاصطناعي تعتمد على عدة إجراءات أساسية. أولًا، تعيد النظر في استراتيجيتها الحالية، فتبتعد عن التعامل مع الحوكمة وكأنها مجرد خطوات شكلية لتحقيق الامتثال، لتتجه نحو نهج جديد يرتكز على الحوكمة أولاً، وهو نهج يقوم على أساس اعتماد الذكاء الاصطناعي المسؤول. هذا التغيير في النهج يتطلب من المؤسسة إعادة ترتيب أولوياتها والتأكيد على القيم الجوهرية التي تحتاج إلى غرسها لضمان أن تخدم هذه التقنية الجميع بأفضل طريقة ممكنة. بمعنى آخر، تقوم هذه المؤسسات بتوجيه تقنياتها وخططها بحيث تلبي احتياجات العملاء وتحقق مصالح أصحاب المصلحة، سواء كانوا ضمن المؤسسة أو خارجها، وبما يضمن لها التميز والاستدامة في بيئة العمل التنافسية.
لورينا يي: ومن هم الأشخاص الذين يشاركون في وضع هذه القيم الأساسية؟ أعني، من يجلس على طاولة النقاش ويأخذ على عاتقه مسؤولية صياغة المبادئ التي ستوجه عمل هذه الأنظمة المعقدة والقوية؟
نافرينا سينغ: نلاحظ أن المؤسسات اليوم تجمع مجموعة متنوعة من أصحاب المصالح حول طاولة النقاش، لضمان اتخاذ قرارات شاملة ومستنيرة. يشمل هؤلاء المديرين التنفيذيين في مجال البيانات والذكاء الاصطناعي، ومسؤولي الحوكمة وإدارة المخاطر، والقادة الذين يتولون إدارة الموافقات وحماية المعلومات الشخصية لضمان الخصوصية. والأهم من ذلك، يتم إشراك المستخدمين الذين ستؤثر هذه الأنظمة عليهم بشكل مباشر، مما يضمن أن يتم تصميم الأنظمة والتقنيات وفقًا لاحتياجاتهم وتطلعاتهم.
إشراك العنصر البشري
لورينا يي: لقد انتقلنا بسرعة من التركيز على الجانب التقني إلى تسليط الضوء على دور الإنسان، الذي يعد محور هذه العملية برمتها. كيف يمكن لهذا النهج أن يحافظ على الإنسان في صدارة هذا التغيير المتسارع حين تضعون القيم الأساسية بوضوح وتعملون جنبًا إلى جنب مع هذه الأنظمة؟ كيف يمكن أن يساهم في بناء أنظمة ذكاء اصطناعي تراعي احتياجات الإنسان وقيمه، وتضمن ألا يطغى الجانب التقني على الجانب الإنساني؟
نافرينا سينغ: أرى أننا نمر بثورة إنسانية حقيقية، وهذه الثورة ليست مدفوعة فقط بالتطور الهائل في الذكاء الاصطناعي، بل ترتبط أيضًا بحاجة عميقة لدينا لإعادة التفكير في مكانتنا وهويتنا في هذا العالم الذي يشكّله الذكاء الاصطناعي. ومن هذا المنطلق، نكتشف فرصة مذهلة للتعاون بين الإنسان والآلة، حيث يسهم هذا التعاون في تعزيز الإمكانيات التي يجلبها الإنسان إلى الساحة. إن هذا التعزيز، أو ما يمكن تسميته بالـ 'مساعد الذكي' للبشر، ليس مجرد فكرة مستقبلية، بل هو واقع بدأنا نلمس أثره بالفعل في تحقيق مكاسب ملحوظة في الإنتاجية عبر مختلف القطاعات والشركات. هذا التعاون بين البشر والذكاء الاصطناعي يفتح آفاقاً جديدة تتيح لنا تطوير إمكانياتنا وتحقيق نتائج لم يكن الوصول إليها ممكناً من قبل.
لكن ما هو أهم من المكاسب الإنتاجية هو التساؤل حول المهارات الجديدة التي سيحتاجها البشر للتكيف مع عصر الذكاء الاصطناعي. هنا يظهر مفهوم "تحول الشخصية"، الذي يعني أن هناك حاجة لظهور أدوار جديدة ومهارات متخصصة لم تكن موجودة من قبل، وتزداد أهميتها في هذا العصر. لم يعد الاعتماد على المهارات التقليدية كافيًا، بل أصبح من الضروري تطوير مهارات جديدة ومحددة تناسب متطلبات الذكاء الاصطناعي. فعلى سبيل المثال، بدأت المؤسسات في استحداث وظائف مثل رئيس الذكاء الاصطناعي، والذي يركز على وضع وتنفيذ استراتيجيات الذكاء الاصطناعي، وأيضًا أخصائي أخلاقيات الذكاء الاصطناعي، والذي يحرص على التأكد من أن استخدام هذه التقنية يتم بطريقة آمنة وأخلاقية. هذا التحول يوضح أن الذكاء الاصطناعي لا يغير طبيعة العمل فقط، بل يستدعي أيضًا ظهور أدوار جديدة تساعد في توجيه التقنية لتلبي احتياجات المجتمع بشكل مسؤول.
تتطلب هذه الأدوار الجديدة مزيجًا فريدًا من المهارات التي تجمع بين خبرات متعددة. فالأشخاص الذين يشغلون هذه المناصب يحتاجون إلى فهم عميق في علوم البيانات وإلمام أساسي بتقنيات الذكاء الاصطناعي، بالإضافة إلى وعيٍ كبير بالتوجهات والسياسات المتغيرة التي تؤثر على الذكاء الاصطناعي، مما يتطلب منهم متابعة مستمرة لما يحدث في هذا المجال الحيوي. وبالمثل، نشهد ظهور أدوار أخرى مثل قادة حوكمة الذكاء الاصطناعي، الذين تقع على عاتقهم مسؤولية إدارة الحوكمة عبر منظومة متكاملة من الذكاء الاصطناعي التوليدي. هؤلاء القادة لا يكتفون بالإشراف على التقنية، بل يتولون مهمة مراقبة وتنسيق العمليات ضمن بنية تحتية متطورة ومعقدة، تتوزع عبر أقسام متعددة ضمن المؤسسة، لضمان الالتزام بمعايير وسياسات موحدة.
بروكسل وتأثيرها العالمي: قوانين الذكاء الاصطناعي بلمسة أوروبية
لورينا يي: كيف تتمكن الشركات من تحقيق التوازن بين حاجتها الملحة لتطوير أنظمة حوكمة شاملة للذكاء الاصطناعي، وبين التحديات الناجمة عن بيئة تنظيمية غير مستقرة ومتغيرة باستمرار إذ تختلف اللوائح والقوانين المتعلقة بالذكاء الاصطناعي باختلاف المناطق الجغرافية؟ وكيف تتكيف هذه الشركات مع هذا الوضع لتضمن التزامها باللوائح المحلية، وفي الوقت ذاته تحافظ على نهج موحد لحوكمة الذكاء الاصطناعي على مستوى عالمي؟
نافرينا سينغ: في هذا العصر الجديد من الذكاء الاصطناعي، وخاصة مع تطور الذكاء الاصطناعي التوليدي، نشهد تسارعًا غير مسبوق في وضع السياسات واللوائح، حيث لم تصل وتيرة تحديث السياسات إلى هذا المستوى من السرعة من قبل، فقد شهدنا في الثمانية عشر شهرًا الماضية تغيرات سريعة لمواكبة تطور هذه التقنية، وهذه الاستجابة السريعة تعكس التأثير العميق للذكاء الاصطناعي واتساع نطاق استخدامه، مما يبرز الحاجة إلى تضافر جهود جميع الأطراف المعنية، بدءًا من الحكومات والشركات وصولًا إلى أفراد المجتمع المدني، لضمان توجيه هذا التطور التقني نحو تحقيق مصلحة البشرية.
فيما يخص التغييرات التنظيمية، هناك نقطة أساسية أود التأكيد عليها، وهي أن المؤسسات التي تتبنى سياسات الحوكمة كإجراء شكلي لضمان الامتثال لن تتمكن من تحقيق الريادة في هذا المجال، فلكي تنجح المؤسسات في عصر الذكاء الاصطناعي، يجب أن تغير نهجها بحيث تنظر إلى الحوكمة كأداة لبناء الثقة وتعزيز الميزة التنافسية، وعندما تصبح الحوكمة جزءًا أساسيًا من استراتيجيتها، فهي لا تكتفي بالامتثال فقط، بل تعمل على بناء ثقة أقوى مع العملاء، مما يساعدها على جذبهم بسرعة أكبر والاحتفاظ بهم لفترات أطول.
أما فيما يتعلق بتنظيم الذكاء الاصطناعي، هناك اعتراف عالمي بأن هذه التقنيات المتطورة توفر فوائد كبيرة، لكنها تحمل أيضًا مخاطر إذا وقعت في أيدي جهات غير مسؤولة. ولهذا السبب، أصبح تنظيم الذكاء الاصطناعي أولوية تشريعية في أنحاء العالم. وفي هذا السياق، كان الاتحاد الأوروبي هو السبّاق في اعتماد إطار تنظيمي شامل يسمى قانون الاتحاد الأوروبي للذكاء الاصطناعي. يهدف هذا القانون إلى وضع قواعد واضحة لاستخدام الذكاء الاصطناعي، بحيث يُستفاد من إمكانياته مع الحد من مخاطره، ليعود بالنفع على الأفراد والمجتمعات.
عندما تعلن مجموعة من 27 دولة، وتصرح: "لا يمكنك إطلاق أي تطبيقات للذكاء الاصطناعي داخل الاتحاد الأوروبي ما لم تلتزم بهذه المعايير، لأننا نريد أن يستفيد مواطنونا من هذه التقنية بشكل آمن"، فهذا يعتبر موقفًا جريئًا. أعتقد أننا سنشهد ما يُعرف بـ "تأثير بروكسل"، مثلما حدث مع قانون حماية البيانات الأوروبي، حيث اضطرت دول أخرى للامتثال لتلك اللوائح. وأتوقع أن نرى أطرًا تنظيمية مشابهة لقانون الاتحاد الأوروبي للذكاء الاصطناعي تنتشر في دول مختلفة حول العالم.
أربعة أسئلة رئيسية يجب التفكير فيها
لورينا يي: لقد ذكرتَ نقطة قد تفاجئ الكثيرين، وهي أن اللوائح الحكومية تتقدم بوتيرة أسرع مما عهدناه سابقًا في مجال الذكاء الاصطناعي. ومع ذلك، فإن هذه السرعة قد لا تكون كافية لتغطية جميع الجوانب الضرورية. فما هي الأسئلة الأربعة أو الخمسة التي يجب علينا النظر فيها، بعيدًا عن اللوائح الحالية؟
نافرينا سينغ: أرى أن المسألة تتعلق بالعودة إلى بعض المبادئ الأساسية المشتركة التي تتجاوز الأطر التنظيمية وتركز على بناء مستوى من الثقة الضرورية لنجاح المؤسسة، وأعتقد أن الخطوة الأولى في هذا السياق تكمن في فهم عميق ودقيق لمكان وكيفية استخدام الذكاء الاصطناعي داخل مؤسستك أو منظمتك، حيث يُستحسن البدء بحصر شامل لجميع تطبيقات الذكاء الاصطناعي، وإنشاء سجل واضح يوضح الأماكن الفعلية لاستخدام هذه الأنظمة، وهذه الخطوة تمثل بداية قوية، وهي مبدأ مشترك نلاحظه في جميع المؤسسات التي نتعامل معها.
لورينا يي: يعجبني أنكِ حوّلتِ هذا المبدأ من فكرة نظرية إلى خطوة عملية يمكن تنفيذها على أرض الواقع. ومع ذلك، يبقى السؤال حول الخطوات التالية التي يجب أن نتناولها بوضوح. فما هي الأسئلة الثانية، والثالثة، والرابعة التي يجب أن نطرحها لنكمل هذه العملية؟
نافرينا سينغ: بعد أن تُحدد بدقة الأماكن التي يُستخدم فيها الذكاء الاصطناعي داخل مؤسستك، يكون السؤال الثاني الذي يجب طرحه هو: كيف يمكنك فهم وتقييم المخاطر المحتملة المرتبطة بهذه الأنظمة؟ من الضروري التفكير في المعايير وأدوات التقييم التي ستستخدمها، والتي يجب أن تتماشى مع قيم شركتك ومبادئها. هذه الخطوة لا تتعلق فقط بالتقييم، بل بتحديد الأسس التي ستعتمدها لضمان أن تعمل أنظمة الذكاء الاصطناعي بما يخدم أهداف الشركة ويتوافق مع قيمها. وهذا التوافق هو العنصر الأساسي الثاني في عملية الحوكمة الفعّالة.
السؤال الثالث يتناول مسألة الموارد البشرية المسؤولة عن عملية التقييم وضمان توافق الأنظمة مع قيم الشركة. وهنا يكمن التساؤل: هل لديك فريق من الأفراد المناسبين الذين يمكنهم تحمل مسؤولية هذه التقييمات والعمل على تحقيق هذا التوافق؟ ومن هم الأشخاص المعنيون الذين يجلسون على طاولة النقاش ويتخذون القرارات الحاسمة؟
بعد إنشاء سجل شامل للذكاء الاصطناعي، وتحديد ما يعنيه تحقيق نتائج إيجابية تتماشى مع معايير الشركة، وتشكيل فريق متكامل من أصحاب المصلحة المناسبين، يبقى السؤال الأخير: هل يمكنك توسيع نطاق هذه العملية بطريقة موحدة ومدروسة باستخدام بنية تحتية وأدوات ملائمة؟ وهنا تظهر أهمية استخدام مجموعة من الأدوات التي تساهم في تحقيق ذلك. على سبيل المثال، تعتمد المؤسسات على أدوات تشغيل نماذج اللغة الكبيرة لتنسيق استخدام الذكاء الاصطناعي على نطاق واسع، وأدوات تشغيل عمليات التعلم الآلي لإدارة العمليات بشكل فعّال، بالإضافة إلى أدوات حوكمة وإدارة المخاطر لضمان الامتثال التنظيمي. هذا التكامل بين الأدوات والبنية التحتية يضمن توسيع نطاق أنظمة الذكاء الاصطناعي بطريقة آمنة وفعّالة، مما يدعم استمرارية العمل بشكل موحد ومنظم.
استمر في التقييم والتطوير بلا توقف
لورينا يي: من المفيد أن نأخذ خطوة إلى الوراء ونوضح الإجراءات التي يمكننا البدء بها اليوم. فبعد تنفيذ الخطوات الأربع السابقة التي تحدثنا عنها، ما الذي ينبغي علي التفكير فيه بعد ذلك؟ ما هي الخطوة التالية التي ستساعدني على المضي قدمًا بشكل استراتيجي، وضمان استمرارية نجاح هذه العملية؟
نافرينا سينغ: الخطوة الأخيرة، التي يجب أن تستمر بشكل دائم، هي عملية القياس المستمر. فأنا أؤمن بأن إدارة أي عملية بنجاح تعتمد على قدرتنا على قياسها بدقة. وبناءً على ذلك، يتطلب النجاح في هذا المجال عملية إعادة تقييم وتطوير مستمرة داخل المؤسسة، بحيث يتم مراجعة وتحليل مخرجات الخطوات الأربع الأولى بانتظام. هذه المراجعات الدورية تساعد على فهم ما حققته المؤسسة حتى الآن وتحديد المجالات التي تحتاج إلى تحسين وتطوير.
في الوقت الحالي، تحتاج المؤسسات إلى تطوير قدرات عالية على التكيف والمرونة، بحيث تتحرك بسرعة دون الإضرار باستقرارها، ولتحقيق ذلك، ينبغي أن تتبنى أسلوبًا مدروسًا في قياس المخاطر، يركز على تحديد المخاطر المناسبة التي قد تواجهها، مع التأكد من توافق كل خطوة مع قيمها الأساسية وأهدافها الاستراتيجية، ويُسهم هذا النهج في تحقيق عائد استثماري مستدام، ولضمان فعالية هذه النتائج، يجب أن تتم العملية ضمن إطار من التقييم والتطوير المستمر، بحيث يتم مراجعة وتحسين الأداء بانتظام. ونحن نؤمن بأن المؤسسات التي تنفذ هذه المنهجية بشكل قياسي، وقابلة للتوسع والتطوير، ومتماشية تمامًا مع رسالتها وأهدافها، هي التي ستتمكن من التفوق والريادة في هذا السباق.
التنوع مطلب ضروري وليس خيار
لورينا يي: بصفتك مستخدمًا للذكاء الاصطناعي، بدلاً من مجرد جهة تقدم حلولًا لدعمه، ما هي القيم التي تعتبرها شركة "Credo" ذات أولوية قصوى؟ بمعنى آخر، ما هي المبادئ التي توجه استخدامكم للتقنيات الذكية داخل الشركة، والتي قد تختلف عن تلك التي تعتمدها الشركات الأخرى التي تركز على تقديم الحلول فقط؟
نافرينا سينغ: أود أن أشارك ثلاث قيم رئيسية نعتبرها أساسية فيما نسميه مبادئ "Credo". أولاً، نؤمن بأن التنوع ليس مجرد خيار إضافي، بل هو جزء أساسي من رؤيتنا، حيث يتألف فريق القيادة لدينا من أكثر من 40% من النساء، مما يعكس التزامنا الحقيقي بالتنوع، ويشمل فريقنا خبرات متعددة لا تقتصر على الذكاء الاصطناعي فحسب، بل تمتد لتشمل مجالات أخرى مثل علم الأعصاب المعرفي وعلم النفس، ما يعني أننا جمعنا فريقًا يثري الشركة بوجهات نظر وخبرات فريدة، وهذا التنوع يضيف قيمة للعمل ويضمن أن تكون رؤانا وحلولنا شاملة لتلبي احتياجات مختلف الفئات.
النقطة الثانية التي أعتبرها جوهرية هي ما أطلق عليه "التحرك بسرعة مع وعي وهدف واضح"، ففي ظل التغيرات المتسارعة في مجال الذكاء الاصطناعي، أصبح التنفيذ السريع ضرورة للتنافسية، لكن ما يميز المؤسسات الناجحة ليس فقط سرعتها، بل الكيفية التي تنفذ بها استراتيجياتها، فالسؤال هنا ليس فقط "كيف يمكن تحقيق النجاح باستخدام الذكاء الاصطناعي؟"، بل "كيف نحقق هذا النجاح بأسلوب مدروس قائم على أهداف واضحة؟"؛ فالقدرة على مواكبة التطورات السريعة في هذه التقنية باتت عاملًا حاسمًا، ومن الضروري أن تحافظ المؤسسات على وتيرتها السريعة دون المساس بوضوح رؤيتها وهدفها المستدام.
أما النقطة الثالثة، فهي تتعلق بالتفكير بعمق حول مفهوم "الجودة" وكيفية تحقيق التميز. نحن في "Credo AI" نؤمن بضرورة رفع المعايير بشكل مستمر، ولهذا لدينا مجموعة من القيم الأساسية والمبادئ التي نعتبرها ركائز لعملنا، مثل تلك التي أشاركها معك الآن. ومع ذلك، لا نتردد في تعديل وتطوير هذه المبادئ كلما ظهرت معلومات جديدة من السوق، لأننا ندرك أن التغيير ضرورة في بيئة تتسم بالتطور السريع. ومن هنا، فإن ثقافة الشركة القوية تحتاج إلى عقلية متفتحة نحو النمو، مما يساعدنا على تبني المعلومات الحديثة والتكنولوجيا المتطورة ومهارات الفريق بشكل سريع ومرن. هذه القدرة على التكيف هي ما يجعلنا مستعدين لمواكبة التغيرات والتطورات المستمرة، مع الحفاظ على التميز في الأداء.
معالجة تحيز الذكاء الاصطناعي من خلال فرق متعددة الخلفيات
لورينا يي: كيف يحدث أن يوسع الذكاء الاصطناعي من نطاق التحيزات بشكل غير مقصود؟ بمعنى آخر، كيف يمكن أن تتسلل التحيزات الموجودة في البيانات المستخدمة لتدريب النماذج أو في الخوارزميات نفسها لتؤدي إلى نتائج غير متوازنة؟
نافرينا سينغ: أولاً، من المهم أن نفهم أن التحيز في الذكاء الاصطناعي لا يُضاف في مرحلة معينة فقط من دورة حياة النموذج، بل يمكن أن يظهر في عدة مراحل مختلفة، بدءًا من جمع البيانات وصولاً إلى مرحلة التحليل والتطوير. ثانيًا، ومن منظور آخر، قد يكون لوجود التحيزات دور إيجابي في الذكاء الاصطناعي، حيث يساعد ذلك على ضمان أن النموذج قادر على التعرف على الأنماط الصحيحة. بمعنى آخر، التحيز يمكن أن يكون مفيدًا في حالات معينة، لأنه يسهم في تمييز سلوكيات أو أنماط محددة بدقة، مما يُعزز من قدرة النموذج على التحليل والتصنيف بشكل فعّال.
تظهر المشكلة عندما يؤدي التحيز في أنظمة الذكاء الاصطناعي إلى نتائج غير مقصودة وغير عادلة بين فئات مختلفة من الأشخاص، مما يخلق تباينًا غير مرغوب فيه. فعند استخدام أنظمة الذكاء الاصطناعي، سواء كانت نماذج لغوية كبيرة أو أنظمة للتنبؤ، نجد أن كلاهما يعتمد بشكل أساسي على البيانات التي يتم تغذيته بها. لذلك، فمن المهم جدًا أن يتم اختيار هذه البيانات بعناية فائقة لضمان دقة النتائج وتجنب التحيزات. ومع ذلك، للأسف، لا يحدث هذا الانتقاء بشكل كافٍ، خاصةً في حالة النماذج اللغوية الكبيرة التي تُصمم بطبيعتها لتكون متعددة الأغراض، مما يتطلب منها القدرة على استيعاب وفهم كم هائل من المحتوى المختلف. وبسبب هذا الهدف الواسع، تصبح جودة البيانات وأمانتها أكثر أهمية، حتى لا يتسبب النموذج في نتائج متحيزة أو منحازة بشكل غير مقصود.
كل هذه البيانات تعتمد على مصادر الإنترنت، بما في ذلك مقاطع الفيديو على اليوتيوب ومصادر أخرى، مما يدفعنا للتساؤل: هل تعكس هذه البيانات الحقيقة بشكل دقيق؟ وبالتعمق أكثر في هذا الموضوع، نواجه تحديًا أكبر، حيث قد يختلف مفهوم "الحقيقة" من شخص لآخر. على سبيل المثال، عند استخدام نموذج لتحويل النص إلى صورة وطلب إنشاء صورة لمدير تنفيذي أو عالم بيانات، نجد أن النموذج غالبًا ما يعتمد على البيانات المتاحة عبر الإنترنت، والتي تظهر غالباً صورًا لرجل في هذه المناصب. هذا التحيز يظهر بسبب أنماط البيانات المستخدمة والتي تعكس صورة نمطية محددة، مما يعني أن النموذج يستند إلى تمثيلات قد لا تكون عادلة أو شاملة. ونتيجة لذلك، يصبح الإشراف البشري أمرًا بالغ الأهمية لضمان مراجعة وتقييم النتائج والتقليل من تأثير التحيزات غير المقصودة.
وعند متابعة مراحل دورة حياة الذكاء الاصطناعي، نجد أن التحيزات يمكن أن تظهر أيضًا في المرحلة الثانية، وهي مرحلة دمج النماذج اللغوية الكبيرة لتشكيل تطبيقات محددة. على سبيل المثال، قد يتم استخدام نموذج مثل "GPT-4" لإنشاء أداة تسويقية موجهة للعملاء. وفي هذه الحالة، إذا كان الفريق المسؤول عن تطوير هذا التطبيق يفتقر إلى التنوع، فقد لا يكون لديهم الوعي الكافي بالتأثيرات الاجتماعية المحتملة لهذه الأداة. وعندما يغيب التنوع في وجهات النظر، يكون من السهل أن تتسرب التحيزات إلى النظام النهائي دون قصد، ما يؤدي إلى ترسيخ هذه التحيزات في أداء التطبيق بطرق يصعب تعديلها لاحقًا. ونتيجة لذلك، تتأثر تجربة المستخدمين بتوجهات وتحيزات قد لا تتناسب مع تنوع احتياجاتهم وتوقعاتهم.
أما النقطة الثالثة التي يجب الانتباه إليها عند معالجة التحيزات هي مرحلة الاختبار. ففي كثير من الأحيان، ومع غياب معايير تقييم دقيقة وواضحة، تعتمد المؤسسات على أسلوب يُعرف باسم "فرق الاختبار الحمراء"، حيث يتم تكوين فرق تضم مجموعة من الأفراد يطرحون عدة استفسارات ويجرون اختبارات متنوعة لتقييم النظام. ومع ذلك، يواجه هذا النهج تحديًا رئيسيًا يتعلق بتشكيل هذه الفرق، إذ إن اختيار أعضاء فريق من خلفيات أو مصالح متشابهة قد يؤدي إلى اختبارات محدودة ذات منظور ضيق، مما يعزز احتمالية تغاضيهم عن بعض التحيزات. على العكس، عندما يتكون الفريق من أفراد يمثلون شرائح مختلفة من المجتمع، تصبح الاختبارات أكثر شمولًا وتنوعًا، مما يزيد من فرص اكتشاف التحيزات المحتملة والتأكد من أن النظام يعمل بإنصاف ويعكس احتياجات وتوقعات جمهور أوسع.
أحد الجوانب التي تثير حماسنا هو تطور مفهوم "الفرق متعددة الخلفيات"، وهو نهج يقوم على تشكيل فرق عمل تضم أفرادًا من خلفيات وخبرات متنوعة، بحيث يفكرون معًا ويقدمون وجهات نظر متعددة. يعتمد هذا النهج على فكرة أن تنوع الفريق يساهم في إعداد استفسارات واختبارات تعكس رؤى أكثر شمولًا، ما يساعد على تصميم سيناريوهات اختبار متنوعة وقابلة للتوسع. بهذه الطريقة، يتمكن النظام من اجتياز اختبارات شاملة ودقيقة تضمن تقييمه بشكل يتماشى مع احتياجات مختلف فئات المستخدمين، ويقلل من احتمالية التحيزات التي قد تظهر إذا اقتصر التقييم على وجهات نظر محدودة.
لذا نقول إن التحيز لا يظهر في مرحلة واحدة فقط من دورة حياة الذكاء الاصطناعي، بل يمكن أن يحدث في عدة مراحل مختلفة. قد يبدأ التحيز من مجموعات البيانات التي يتم استخدامها لتدريب النظام، حيث قد تحتوي على أنماط غير متوازنة أو منحازة. ثم، أثناء بناء التطبيقات الذكية، قد يتم تضمين افتراضات أو قواعد تؤدي إلى انحيازات إضافية. وفي مرحلة الاختبار، إذا لم يتم استخدام مقاييس شاملة وفرق اختبار متنوعة، يمكن أن تُغفل بعض جوانب التحيز. حتى بعد إطلاق النظام في السوق، يستمر التحيز في التطور، إذ يتعلم النظام من البيانات المتاحة التي قد تعكس تحيزات معينة في البيئة التي يعمل فيها.
الانتقال إلى نماذج لغوية شاملة بعيدًا عن نماذج اللغة الإنجليزية
لورينا يي: بالنظر إلى أن معظم النماذج اللغوية الكبيرة يتم تدريبها باستخدام مجموعات بيانات تعتمد بشكل رئيسي على اللغة الإنجليزية، وغالبًا ما تكون ذات طابع أمريكي شمالي، يطرح هذا سؤالاً مهمًا وهو: إلى أي مدى يمكن أن تكون هذه النماذج مفيدة وفعالة للدول الأخرى التي تختلف في اللغة والثقافة؟ أعلم أن هذا السؤال قد يبعد بعض الشيء عن موضوع حوارنا وهو الذكاء الاصطناعي المسؤول، لكن يجب النظر إلى أن تكلفة بناء هذه النماذج عالية جدًا، مما يجعلها غير متاحة بسهولة للجميع. ومع مرور الوقت، ستحتاج الدول الأخرى إلى تطوير نماذج لغوية محلية خاصة بها، تتسم بمستوى عالٍ من الدقة والتفاصيل في الاختبار لتناسب احتياجاتها الخاصة، وهو أمر يتطلب موارد كبيرة لضمان تحقيق نفس المستوى من الجودة والشمولية.
نافرينا سينغ: في الحقيقة، هذا السؤال يمس جوهر الذكاء الاصطناعي المسؤول. فنحن إذا لم نأخذ في الاعتبار الثقافات واللغات المختلفة عند تطوير نماذج الذكاء الاصطناعي، فإننا نخاطر بترك غالبية سكان العالم خارج هذه الثورة التقنية. هذا الاستبعاد لن يؤدي فقط إلى تهميش العديد من المجتمعات، بل سيخلق أيضًا فجوة اجتماعية كبيرة بين الدول والمجتمعات التي تستفيد من هذه التكنولوجيا وتلك التي لا تصلها بنفس الفعالية. إن التفاوتات التي قد تنشأ في النسيج الاجتماعي نتيجة لهذا التجاهل هي مسألة تستدعي قلقنا جميعًا، وتتطلب منا العمل بجد لضمان شمولية الذكاء الاصطناعي للجميع.
ومع ذلك، هناك بعض التطورات الإيجابية التي تبعث على التفاؤل في هذا المجال. أولاً، نرى بعض الشركات التي لا تكتفي فقط بجمع مجموعات بيانات تتميز بتنوع ديموغرافي وثقافي، بل تتخذ خطوات إضافية لضمان عدالة أجور وتعويض العاملين الذين يقومون بتصنيف هذه البيانات. فهذه الشركات تدفع لمصنّفي البيانات البشرية أجورًا أعلى من المعدلات العالمية، إدراكًا منها لأهمية دورهم في تطوير النماذج اللغوية الكبيرة. لأن وجود قوة عاملة ضخمة، تصل إلى مليوني عامل، لتغذية هذه النماذج دون مكافآت مناسبة يعد مشكلة حقيقية يجب معالجتها. وبالتالي، نلاحظ في هذه الصناعة جهودًا مبتكرة ليس فقط في تحسين جودة البيانات، بل أيضًا في ضمان تنوعها الثقافي، بما يعزز من شمولية ودقة النماذج اللغوية المطورة.
النقطة الثانية التي نلاحظها هي الجهود المبذولة للحفاظ على المعلومات السياقية والديموغرافية التي تميز بعض الثقافات. فعلى سبيل المثال، بالنسبة للسكان الأصليين في أمريكا، تشكل لغتهم جزءًا أساسيًا من هويتهم وتاريخهم، لذا يصبح من الضروري أن نحرص على الحفاظ على هذا السياق التاريخي والثقافي عند تطوير النماذج اللغوية.
كما نشهد حالة من الوعي المتزايد في بيئة الذكاء الاصطناعي بأهمية التنوع الثقافي واللغوي. ففي البداية، كانت النماذج اللغوية الكبيرة تركز على اللغة الإنجليزية فقط، لكن خلال الأشهر الثمانية عشر الماضية، بدأت الجهود تتركز على إثراء هذه النماذج بمعلومات ثقافية وجغرافية وديموغرافية أكثر شمولاً. هذا التوجه يهدف إلى تحقيق توازن أكبر وشمولية في استخدام هذه النماذج على مستوى العالم، بحيث تلبي احتياجات وثقافات مختلفة.
جهود للحصول على صوت في اتخاذ القرارات
لورينا يي: لقد ناقشنا وتحدثنا بشكل موسع عن التكنولوجيا والذكاء الاصطناعي المسؤول، ومن المحتمل أن نستمر في هذا الحوار لفترة أطول. ومع ذلك، أريد أن أركز على جانب آخر يثير اهتمامي، وهو قصتك الشخصية. أنتِ إنسانة مثيرة للاهتمام حقًا، لذا أود أن أعرف ما هو الدافع أو الشرارة التي جعلتك تقررين ترك شركة تكنولوجيا كبيرة والانتقال إلى تأسيس شركة "Credo"؟ ما الذي ألهمك لهذه الخطوة، وكيف شكلت تجربتك السابقة رؤيتك للمستقبل في مجال الذكاء الاصطناعي؟
نافرينا سينغ: نشأتُ في الهند في عائلة متواضعة، حيث خدم والدي في الجيش الهندي لمدة 40 عامًا، بينما كانت والدتي دائمًا مبتكرة، بدأت كمعلمة ثم تحولت إلى مصممة أزياء. ولك أن تتخيل، كيف كان من الصعب أن يُنظر إلى النساء في الهند قبل 20-25 عامًا أنهن عوامل تغيير أو مبتكرات في المجتمع. ومع ذلك، كنت محظوظة بنعمة كبيرة تتمثل في وجود عائلة داعمة، سمحت لي بأن أكون شخصية متمردة وأسعى وراء طموحاتي.
انتقلت إلى الولايات المتحدة في سن التاسعة عشرة، حيث بدأت دراستي ثم انطلقت في مسيرتي المهنية كمهندسة أجهزة. لكن، كان أمامي تحدٍ كبير في الحصول على مقعد على طاولة اتخاذ القرارات خلال مسيرتي. لم يكن هناك الكثير من النساء في المناصب القيادية في ذلك الوقت.
بحلول عام 2011، بدأت أعمل في مجال التعلم الآلي والذكاء الاصطناعي، وهنا رأيت أن المجتمع كان يغذي هذه الأنظمة ببيانات تجعل النساء غير مرئيات مرة أخرى. بالنسبة لي، لم تعد هذه الرحلة مجرد مسعى مهني؛ بل أصبحت مهمة حقيقية لضمان أن تخدم هذه التكنولوجيا جميع البشر، وخاصة النساء، بما في ذلك النساء ذوات البشرة السمراء. كما أنني أردت أن أضمن أننا نتخلص من ذلك الغطاء غير المرئي الذي يعوق تقدمنا المهني والشخصي في هذا النظام.
كيفية التغلب على التحيزات داخل قاعات الاجتماعات
لورينا يي: تشير الإحصاءات إلى أن الشركات الناشئة التي تمولها النساء تحصل على حوالي 2% فقط من إجمالي تمويل رأس المال الداعم للشركات الناشئة. وهذا يعكس مشكلة كبيرة تتعلق بعدم وضوح رؤية هذه الشركات في سوق الاستثمار. لذا، السؤال المهم هنا هو: ما هي التغييرات اللازمة لجعل إزالة الغطاء الذي يحجب رؤية الشركات التي تقودها النساء أمرًا شائعًا؟
نافرينا سينغ: لا زلت أبحث عن إجابات حول التحيزات الموجودة في تقييم المؤسسين. أعتقد أن هناك الكثير من التحيزات غير المعلنة التي تؤثر على الطريقة التي نقيم بها المؤسسين المتنوعين مقارنة بالمؤسسين التقليديين، وهذا الأمر بحاجة ماسة إلى تغيير.
عندما أكون في قاعات اجتماعات المستثمرين، ألاحظ أن الأسئلة التي تُطرح غالبًا ما تركز على "إثبات قدرتك على النجاح"، مما يضع عبئًا إضافيًا على المؤسسين المتنوعين. بالمقابل، نجد أن المؤسسين من الرجال يتلقون أسئلة تدور حول "ما الذي يمكنك تحقيقه إذا كان لديك موارد ورأس مال غير محدود؟" هذا الفارق في نوعية الأسئلة يعكس التحيزات المتجذرة، حيث نكون محصورين في عالم من الحاجة إلى الإثبات بدلاً من تعزيز الإمكانيات.
علاوة على ذلك، هناك جانب آخر يتطلب التغيير، وهو الطريقة التي نتعامل بها مع تعليم الذكاء الاصطناعي. لأن تعزيز المعرفة بالذكاء الاصطناعي يتطلب أسلوبًا تعليميًا متنوعًا ومجموعة مهارات شاملة لضمان تحقيق النجاح. لذلك، من الضروري أن نعتمد تنوع الخلفيات في المؤسسات التعليمية، مما سيمكننا من إجراء تغييرات حقيقية تؤثر في مستقبل هذا المجال.
لورينا يي: سأطرح الآن بعض الأسئلة الممتعة لتغيير الجو قليلاً. فيما يخص الذكاء الاصطناعي التوليدي، أود أن أعرف ما هي الميزات التي تفضلها أو تعجبك أكثر. وكيف ترى هذه الميزات تسهم في تحسين التجربة أو تعزيز الابتكار في هذا المجال؟
نافرينا سينغ: قد تندهشي أو ربما لا حينما أقول أن اللغة الإنجليزية ليست هي لغتي الأم. لذلك، أعتمد على أدوات مثل "Google Bard" (الذي أصبح الآن يُعرف باسم "Gemini" و"Claude 3" و"GPT") لمساعدتي في كتابة رسائل البريد الإلكتروني. هذه الأدوات تساعدني في التعبير عن أفكاري بطريقة أكثر وضوحًا وجاذبية، مما يساهم في تحسين فعالية تواصلي مع الآخرين. وبفضل هذه التكنولوجيا، يمكنني التواصل بشكل يحقق استجابة إيجابية أكبر من المستخدمين النهائيين، مما يُعزز من جودة التواصل بشكل عام.
لورينا يي: بصفتك أم، أود أن أسألك عن أفكارك العميقة حول العالم الذي سترثه ابنتك. ففي ظل التطورات السريعة في التكنولوجيا، ما هي التقنية التي تعتقدين أنها، إذا جاز لي أن أقول، قد تكون ابنتك أكثر مهارة في استخدامها منكِ؟
نافرينا سينغ: أود أن أقول إن التكنولوجيا المفضلة لدى ابنتي في الوقت الحالي هي "DALL-E". فهي طفلة تتمتع بإبداع كبير، وتستخدم هذه الأداة لتوليد الصور بشكل منتظم. لأنها من خلال استخدام "DALL-E"، تتمكن من التعبير عن أفكارها ورؤاها بطريقة فنية مبتكرة.
لورينا يي: من بين الأمور المثيرة التي شاركتِها معي، ذكرتِ أنك كنت تستخدمين منزلك كمختبر أثناء نشأتك، حيث كنتِ تقومين بتفكيك الأشياء وإعادة تجميعها. ما هي أبرز تجربة أجريتها في تلك الفترة؟ وكيف أثرت هذه التجارب على اهتماماتك الحالية أو مهاراتك الفنية في مجالات أخرى؟
نافرينا سينغ: نشأنا في مجتمعات كانت تعاني من انقطاع الكهرباء بصفة مستمرة، مما دفعني إلى إجراء تجربة مثيرة. وقد قررت أن أعيد توجيه الكهرباء من بعض جيراني لأرى كم من الطاقة يمكنني توليدها لمنزلي. للأسف، لم تسرِ تلك التجربة كما كنت آمل، خاصةً في نظر والديَّ. ومع ذلك، كان الأمر مثيرًا للاهتمام، إذ جاء جميع جيراني إلى منزلنا للاستفسار عن أهدافي من هذه التجربة ومعرفة ما الذي كنت أسعى لتحقيقه. وبصفتي طفلة متمردة، كان لدي دافع قوي للبحث عن الحقيقة بطريقة تتناسب مع قيمي. فإذا شعرت أنني بحاجة إلى معرفة شيء ما، كنت أسعى لتحقيق ذلك بنفسي، حتى وإن كان ذلك يعني القيام بمزيد من الأبحاث. ولحسن حظي، وجدت الدعم من مجتمعي، الذي شجعني على استكشاف أفكاري وتجربتي. هذا الدعم ساعدني على تطوير شغفي بالاستكشاف والابتكار، وهو ما لا يزال يؤثر على حياتي حتى اليوم.