مع تزايد القدرات وانتشار الذكاء الاصطناعي، يزداد وجود العديد من المخاطر المحتملة. سيستمر تطور هذه المخاطر مع توسع استخدام التكنولوجيا. إليك أبرز خمس مخاطر يواجهها الذكاء الاصطناعي بشكل متنامٍ.
1. نقص القدرة على متابعة تنفيذ التكنولوجيا الذكية.
من وجهة نظر إدارة المخاطر، غالبًا ما نبدأ بقائمة جرد للأنظمة والنماذج التي تحتوي على التعلم الآلي، وهذا يسمح لنا باستخدام عالم المخاطر لتتبع وتقييم وتحديد أولويات والتحكم في مخاطر التعلم الآلي.
بسوء الحظ ، يعني الارتفاع الشديد في شعبية التكنولوجيا بشكل عام أن يتم تنفيذها بشكل متزايد خارج نطاق الفريق الرسمي لتكنولوجيا المعلومات. تشير دراسة أجرتها شركة McAfee إلى أن 80٪ من موظفي المؤسسات يستخدمون تطبيقات SaaS (البرمجيات كخدمة) التي لا تعتمد في العمل في أغلب الأحيان، وهذا ليس بشكل ضار بل لزيادة الإنتاجية. يمكن للإدارات في بعض الأحيان اختيار أنظمة عملية سهلة الشراء تحتوي على عنصر من الذكاء الاصطناعي، أو يمكن أن تقوم بترقية النظام الروتينية لإدخال الذكاء الاصطناعي في تطبيق معين. في كلا الحالتين ، يمكن تقديم الذكاء الاصطناعي بسهولة دون الحاجة إلى معرفة إدارة المخاطر وتكنولوجيا المعلومات.
2. إدخال التحيز البرنامجي في صنع القرار
أحد أخطر المخاطر التي تواجه الذكاء الاصطناعي هو إدخال التحيز في خوارزميات اتخاذ القرارات، فالأنظمة الذكية تتعلم من البيانات التي تتم تدريبها عليها، وبناءً على كيفية جمع هذه البيانات، يمكن أن تعكس البيانات افتراضات أو تحيزات معينة، وهذه التحيزات قد تؤثر بشكل سلبي على عملية اتخاذ القرار في النظام.
مصادر جمع البيانات واختراق الخصوصية الشخصية
بحسب التوقعات الخاصة بمؤسسة البيانات الدولية، من المتوقع أن يتزايد حجم البيانات العالمية من 33 تريليون غيغابايت في عام 2018 إلى 175 غيغابايت بحلول عام 2025. وهذا يعني وجود كميات هائلة من البيانات المنظمة وغير المهيكلة المتاحة للشركات للاستفادة منها ومعالجتها.
سيصبح حماية الخصوصية الشخصية أكثر صعوبة مع انتشار التكنولوجيا الذكية، وعند وقوع تسرب للبيانات أو انتهاكات، قد يتعرض الشركة لأضرار كبيرة ومخاطر قانونية بسبب تشريعات البيانات الشخصية التي تمررها الهيئات التشريعية.
تقنيات تشفير البيانات وقلة الشفافية
الهدف الرئيسي من العديد من أنظمة الذكاء الاصطناعي هو إجراء تنبؤات، وبسبب هذا، يمكن أن تكون الخوارزميات معقدة جدًا لدرجة أن حتى مُبتكري الخوارزميات لا يستطيعون شرح كيف تتصل المتغيرات معًا لتكوين التنبؤ، وهذا النقص في الشفافية هو السبب في وصف بعض الخوارزميات كـ “الصندوق الأسود”، وهذا السبب يدفع الهيئات التشريعية الآن للبحث في تطبيق ضوابط وتوازنات قد تلزم بوجودها، على سبيل المثال، إذا رُفض زبون في البنك بناءً على توقع الذكاء الاصطناعي حول جدارته الائتمانية، فإن الشركات تخاطر بعدم قدرتها على تفسير السبب.
5. المسؤولية القانونية غير واضحة
بناءً على المخاطر المحتملة للذكاء الاصطناعي التي تمت مناقشتها حتى الآن، تنطوي هذه المخاوف على مسألة المسؤولية القانونية. فإذا تم تصميم نظام الذكاء الاصطناعي بواسطة خوارزميات غامضة، وسمح له بالتعلم الآلي لتحسين نفسه، فمن يتحمل المسؤولية القانونية عن النتيجة؟ هل تقع هذه المسؤولية على الشركة المصنعة أو المبرمج أو النظام نفسه؟ هذا الخطر ليس مجرد نظرية، فقد حدث في عام 2018 حادث اصطدام سيارة ذاتية القيادة بمشاة مما أدى إلى وفاتهم، وفي هذه الحالة، لم يكن السائق البشري الذي كان يجب أن يكون في حالة تأهب المسؤول عن النظام عندما فشلت التقنية الذكية.
هل فوائد الذكاء الاصطناعي تفوق المخاطر؟
تواجه مخاطر الذكاء الاصطناعي تحديات كبيرة، لكن لا بد من استخدام هذه التقنيات وتطويرها. تتجاوز الفوائد المحتملة المكاسب البسيطة في الكفاءة، وتتضمن تطوير سيناريوهات تساعد على اتخاذ قرارات أكثر عدالة وشمولاً عندما يُعمل على تجنب التحيز في تدريب الخوارزميات. من خلال زيادة فهمنا للمخاطر والضوابط، ينبغي لنا أن نبحث عن سبل تعزيز ميزات نظم الذكاء الاصطناعي.
يجب أن تشمل أنظمة الذكاء الاصطناعي وثائق تصميم واضحة.
ينبغي أن يتضمن التعلم الآلي عمليات الاختبار والتحسين.
يجب أن تكون مراقبة الذكاء الاصطناعي وتنظيمها الأولوية على الخوارزميات والكفاءة.
يجب علينا جميعًا أن نكون مسؤولين عن معرفة المزيد حول مخاطر الذكاء الاصطناعي وكيفية التحكم فيها، ولا يمكن تجاهل هذا الموضوع، حيث ستستمر هذه المخاطر في الزيادة والتغير مع تطور التكنولوجيا وانتشارها. ستكون المنظمات التي تأخذ هذه النقاط الثلاثة بعين الاعتبار مجهزة بشكل أفضل لإدارة مخاطر أنظمة الذكاء الاصطناعي، والتي قد تكون لها عواقب قانونية كبيرة.
أقرا ايضا:أخطاء بالجملة فى مسلسل نعمة الأفوكاتو…أعرف التفاصيل