ما هو الذكاء الاصطناعي المسؤول؟ المبادئ والتحديات والفوائد

elchaml
ما هو الذكاء الاصطناعي المسؤول؟ المبادئ والتحديات والفوائد

 يشير الذكاء الاصطناعي المسؤول (RAI) إلى تصميم ونشر أنظمة الذكاء الاصطناعي التي تتسم بالشفافية وعدم التحيز والمساءلة وتتبع المبادئ التوجيهية الأخلاقية. نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر قوة وانتشارًا ، فإن ضمان تطويرها بمسؤولية واتباع إرشادات السلامة والأخلاق أمر ضروري.

تعد تطبيقات الصحة والنقل وإدارة الشبكة والمراقبة  تطبيقات ذكاء اصطناعي ذات أهمية بالغة للسلامة حيث يمكن أن يكون لفشل النظام عواقب وخيمة. تدرك الشركات الكبرى أن RAI ضروري للتخفيف من مخاطر التكنولوجيا. ومع ذلك ، وفقًا لتقرير MIT Sloan / BCG الذي شمل 1093 مشاركًا ، فإن 54٪ من الشركات تفتقر إلى الخبرة والموهبة المسؤولة في مجال الذكاء الاصطناعي.

على الرغم من أن قادة الفكر والمنظمات قد طوروا مبادئ للذكاء الاصطناعي المسؤول ، إلا أن ضمان التطوير المسؤول لأنظمة الذكاء الاصطناعي لا يزال يمثل تحديات. دعنا نستكشف هذه الفكرة بالتفصيل:

5 مبادئ للذكاء الاصطناعي المسؤول

1. الإنصاف

يجب على التقنيين تصميم الإجراءات بحيث تعامل أنظمة الذكاء الاصطناعي جميع الأفراد والمجموعات بإنصاف دون تحيز. ومن ثم ، فإن الإنصاف هو المطلب الأساسي في تطبيقات صنع القرار عالية المخاطر.

يتم تعريف الإنصاف على أنه:

"دراسة التأثير على المجموعات الديموغرافية المختلفة واختيار واحد من عدة تعريفات رياضية لعدالة المجموعة والتي ستلبي بشكل كاف المجموعة المطلوبة من المتطلبات القانونية والثقافية والأخلاقية."

2. المساءلة

تعني المساءلة أن الأفراد والمنظمات الذين يقومون بتطوير ونشر أنظمة الذكاء الاصطناعي يجب أن يكونوا مسؤولين عن قراراتهم وأفعالهم. يجب أن يضمن الفريق الذي ينشر أنظمة الذكاء الاصطناعي أن نظام الذكاء الاصطناعي الخاص بهم شفاف وقابل للتفسير وقابل للتدقيق ولا يضر بالمجتمع.

تشمل المساءلة  سبعة مكونات:

  1. السياق (الغرض الذي من أجله تتطلب المساءلة)
  2. المدى (موضوع المساءلة)
  3. الوكيل (من هو المسؤول؟)
  4. المنتدى (الذي يجب على الجهة المسؤولة إبلاغه)
  5. المعايير (معايير المساءلة)
  6. العملية (طريقة المساءلة)
  7. الآثار (عواقب المساءلة)

3. الشفافية

تعني الشفافية أن السبب وراء اتخاذ القرار في أنظمة الذكاء الاصطناعي واضح ومفهوم. أنظمة الذكاء الاصطناعي الشفافة قابلة للتفسير.

وفقًا لقائمة تقييم الذكاء الاصطناعي الجدير بالثقة (ALTAI) ، تتكون الشفافية من ثلاثة عناصر رئيسية:

  1. التتبع (يمكن الوصول إلى البيانات وخطوات المعالجة المسبقة والنموذج)
  2. القابلية للتفسير (السبب وراء اتخاذ القرار / التنبؤ واضح)
  3. الاتصال المفتوح (فيما يتعلق بحدود نظام الذكاء الاصطناعي)

4. الخصوصية

الخصوصية هي أحد المبادئ الرئيسية للذكاء الاصطناعي المسؤول. يشير إلى حماية المعلومات الشخصية. يضمن هذا المبدأ أن المعلومات الشخصية للأشخاص يتم جمعها ومعالجتها بموافقة وإبعادها عن أيدي المستائين.

كما ثبت مؤخرًا ، كانت هناك حالة لشركة Clearview ، وهي شركة تصنع نماذج التعرف على الوجه لتطبيق القانون والجامعات. رفعت هيئات مراقبة البيانات في المملكة المتحدة دعوى قضائية ضد Clearview AI مقابل 7.5 مليون جنيه إسترليني لجمع صور لسكان المملكة المتحدة من وسائل التواصل الاجتماعي دون الموافقة على إنشاء قاعدة بيانات تضم 20 مليار صورة.

5. الأمن

يعني الأمن ضمان أن أنظمة الذكاء الاصطناعي آمنة ولا تهدد المجتمع. مثال على تهديد أمن الذكاء الاصطناعي هو الهجمات العدائية . تخدع هذه الهجمات الخبيثة نماذج تعلم الآلة لاتخاذ قرارات غير صحيحة. تعد حماية أنظمة الذكاء الاصطناعي من الهجمات الإلكترونية أمرًا ضروريًا للذكاء الاصطناعي المسؤول.

4 التحديات والمخاطر الرئيسية للذكاء الاصطناعي المسؤول

1. التحيز

يمكن أن تؤثر التحيزات البشرية المتعلقة بالعمر والجنس والجنسية والعرق على جمع البيانات ، مما قد يؤدي إلى نماذج ذكاء اصطناعي متحيزة. وجدت دراسة لوزارة التجارة الأمريكية أن التعرف على الوجه يخطئ الذكاء الاصطناعي في التعرف على الأشخاص الملونين. ومن ثم ، فإن استخدام الذكاء الاصطناعي للتعرف على الوجه في إنفاذ القانون يمكن أن يؤدي إلى اعتقالات غير مشروعة. أيضًا ، يعد إنشاء نماذج ذكاء اصطناعي عادلة أمرًا صعبًا نظرًا لوجود 21 معيارًا مختلفًا لتحديدها. إذن ، هناك مقايضة. إن تلبية أحد معايير الذكاء الاصطناعي العادلة يعني التضحية بأخرى.

2. التفسير

التفسير هو تحدٍ بالغ الأهمية في تطوير الذكاء الاصطناعي المسؤول. يشير إلى فهم كيفية وصول نموذج التعلم الآلي إلى نتيجة معينة.

تفتقر الشبكات العصبية العميقة إلى القابلية للتفسير لأنها تعمل كصناديق سوداء مع طبقات متعددة من الخلايا العصبية المخفية ، مما يجعل من الصعب فهم عملية اتخاذ القرار. يمكن أن يكون هذا تحديًا في اتخاذ القرارات عالية المخاطر مثل الرعاية الصحية والتمويل وما إلى ذلك.

علاوة على ذلك ، فإن إضفاء الطابع الرسمي على التفسير في نماذج ML يمثل تحديًا لأنه شخصي ومخصص  للمجال .

3. الحوكمة

تشير الحوكمة إلى مجموعة من القواعد والسياسات والإجراءات التي تشرف على تطوير ونشر أنظمة الذكاء الاصطناعي. في الآونة الأخيرة ، كان هناك تقدم كبير في خطاب حوكمة الذكاء الاصطناعي ، حيث قدمت المنظمات الأطر والمبادئ التوجيهية الأخلاقية.

المبادئ التوجيهية الأخلاقية للذكاء  الاصطناعي الجدير بالثقة من قبل الاتحاد الأوروبي ،  وإطار أخلاقيات الذكاء الاصطناعي الأسترالي ، ومبادئ  منظمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي هي أمثلة على أطر حوكمة الذكاء الاصطناعي.

لكن التقدم السريع في الذكاء الاصطناعي في السنوات الأخيرة يمكن أن يتفوق على أطر حوكمة الذكاء الاصطناعي هذه. تحقيقًا لهذه الغاية ، يجب أن يكون هناك إطار عمل يقيم عدالة أنظمة الذكاء الاصطناعي وقابليتها للتفسير وأخلاقياتها.

4. اللائحة

مع انتشار أنظمة الذكاء الاصطناعي ، يجب أن يكون هناك تنظيم لمراعاة القيم الأخلاقية والمجتمعية. يعد تطوير اللوائح التنظيمية التي لا تخنق ابتكار الذكاء الاصطناعي تحديًا حاسمًا في الذكاء الاصطناعي المسؤول.

حتى مع اللائحة العامة لحماية البيانات (GDPR) ، وقانون خصوصية المستهلك في كاليفورنيا (CCPA) ، وقانون حماية المعلومات الشخصية (PIPL) كهيئات تنظيمية ، وجد باحثو الذكاء الاصطناعي أن 97٪ من مواقع الاتحاد الأوروبي لا تمتثل لمتطلبات الإطار القانوني للائحة العامة لحماية  البيانات .

علاوة على ذلك ، يواجه المشرعون تحديًا كبيرًا في التوصل إلى توافق في الآراء بشأن تعريف الذكاء الاصطناعي الذي يشمل أنظمة الذكاء الاصطناعي الكلاسيكية وأحدث تطبيقات الذكاء الاصطناعي.

3 الفوائد الرئيسية للذكاء الاصطناعي المسؤول

1. تقليل التحيز

يقلل الذكاء الاصطناعي المسؤول من التحيز في عمليات صنع القرار ، وبناء الثقة في أنظمة الذكاء الاصطناعي. يمكن أن يوفر الحد من التحيز في أنظمة الذكاء الاصطناعي نظام رعاية صحية عادلًا ومنصفًا  ويقلل من التحيز في  الخدمات المالية القائمة على الذكاء الاصطناعي وما إلى ذلك.

2. تعزيز الشفافية

يجعل الذكاء الاصطناعي المسؤول تطبيقات الذكاء الاصطناعي الشفافة التي تبني الثقة في أنظمة الذكاء الاصطناعي. تقلل أنظمة الذكاء الاصطناعي الشفافة من مخاطر الخطأ وسوء الاستخدام . تسهل الشفافية المحسّنة تدقيق أنظمة الذكاء الاصطناعي ، وتكسب ثقة أصحاب المصلحة ، ويمكن أن تؤدي إلى أنظمة ذكاء اصطناعي خاضعة للمساءلة.

3. أمن أفضل

تضمن تطبيقات الذكاء الاصطناعي الآمنة خصوصية البيانات ، وتنتج مخرجات جديرة بالثقة وغير ضارة ، وآمنة من الهجمات الإلكترونية.

طور عمالقة التكنولوجيا مثل Microsoft و  Google ، الذين يتصدرون تطوير أنظمة الذكاء الاصطناعي ، مبادئ الذكاء الاصطناعي المسؤول. يضمن الذكاء الاصطناعي المسؤول ألا يكون الابتكار في الذكاء الاصطناعي ضارًا للأفراد والمجتمع.

يجب على قادة الفكر والباحثين والمنظمات والسلطات القانونية مراجعة أدبيات الذكاء الاصطناعي المسؤولة باستمرار لضمان مستقبل آمن للابتكار في الذكاء الاصطناعي.

لمزيد من المحتوى المتعلق بالذكاء الاصطناعي ، تفضل بزيارة  موقع unite.ai .

التصنيفات:

#buttons=( أقبل ! ) #days=(20)

يستخدم موقعنا ملفات تعريف الارتباط لتعزيز تجربتك. لمعرفة المزيد
Accept !