في ظل التطور السريع لتقنيات الذكاء الاصطناعي واعتمادها في مختلف القطاعات، أصبح من الواضح أن التحديات المصاحبة لهذه التقنية لا تقتصر على الجوانب التقنية فحسب، بل تمتد إلى المخاطر القانونية، الامتثال التنظيمي، والأثر العميق على استمرارية الأعمال. من تعطل الأنظمة إلى الدعاوى القضائية الناتجة عن التحيزات الخوارزمية وانتهاكات الخصوصية، تواجه الشركات تحديات غير مسبوقة تتطلب إعادة النظر في استراتيجيات إدارة المخاطر والتأمين.
في هذا الحوار، تناقشنا السيدة كلير دافي، رئيسة ابتكار المنتجات والمخاطر الناشئة في Relm Insurance، المخاطر المتزايدة للذكاء الاصطناعي، وكيف تتجاوز هذه الإخفاقات كونها مجرد أعطال تقنية لتصبح تهديدات حقيقية لاستدامة الشركات. كما سنتناول مدى سرعة تطور المسؤولية القانونية للذكاء الاصطناعي مقارنة بالتشريعات، وتأثير ذلك على الامتثال القانوني، الدعاوى القضائية، وسمعة العلامات التجارية.
لماذا لا تُعد أعطال الذكاء الاصطناعي مجرد خلل تقني فحسب، بل هي تهديدات لاستمرارية الأعمال. مع ازدياد عدد الصناعات التي تُدمج الذكاء الاصطناعي في عملياتها؟
مع تزايد تكاملات الذكاء الاصطناعي، تحتاج الشركات المبتكرة إلى تعويض المخاطر المرتبطة بدمج حلول الذكاء الاصطناعي التابعة لجهات خارجية. يمكن أن تتجلى هذه المخاطر على النحو التالي:
- التكاليف المتعلقة باسترجاع الوحدات المعيبة، والتخلص منها، وتعويض العملاء، وتصنيع منتجات بديلة. غالبًا ما تكون هذه النفقات واسعة النطاق، حيث لا تقتصر فقط على تكاليف استدعاء المنتجات المباشرة، بل تشمل أيضًا البنية التحتية للوجستيات وخدمة العملاء اللازمة لإدارة العملية.
- فشل في وظائف الذكاء الاصطناعي—خاصة في منتج استهلاكي—يمكن أن يؤدي إلى ضرر كبير بسمعة العلامة التجارية. التداعيات الإعلامية وردود الفعل السلبية من المستهلكين قد تؤدي إلى فقدان حصة في السوق، وانخفاض ولاء العملاء، وزيادة التدقيق من الهيئات التنظيمية.
- تضطر الشركة إلى تعليق الإنتاج والتوزيع لحل مشكلة الذكاء الاصطناعي، مما يؤثر على العمليات الجارية والجداول الزمنية للمنتجات المستقبلية. يمكن أن يؤدي ذلك أيضًا إلى خسائر كبيرة في الإيرادات بسبب اضطرابات سلاسل التوريد والتأخيرات المحتملة في إطلاق المنتجات.
هل تتطور المسؤولية القانونية الناتجة عن الذكاء الاصطناعي بوتيرة أسرع من التشريعات؟ من التحيز في الخوارزميات إلى المعلومات المضللة وانتهاكات الأمان، تواجه الشركات تعرضًا متزايدًا للدعاوى القضائية ومخاطر الامتثال.
سيكون هناك تزايد في دعاوى الملكية الفكرية، حيث يسعى الأفراد والشركات للحصول على تعويضات عن أعمالهم التي تم استخدامها في تدريب النماذج اللغوية الكبيرة (LLMs). لقد شهدنا بالفعل نشاطًا في هذا المجال مع رفع دعاوى قضائية ضد شركات الذكاء الاصطناعي من قبل مؤلفين بارزين وفنانين وشركات نشر ووسائل إعلام كبرى، متهمين هذه الشركات باستخدام غير مصرح به لممتلكاتهم الفكرية.
سيحاول أولئك الذين ينتجون المحتوى (كتب، صور، إلخ) العثور على الجهات التي تمتلك أكبر قدرة مالية واستجابة قانونية، سواء كانوا الناشرين أو شركات التكنولوجيا أو كليهما. علاوة على ذلك، لا تزال هناك معركة مستمرة حول حقوق الطبع والنشر وحقوق ملكية المحتوى الذي يتم إنشاؤه باستخدام الذكاء الاصطناعي التوليدي.
سيتم اختبار الإطار التنظيمي الذي يمكن تطبيقه على الذكاء الاصطناعي مع هذه الحالات الجديدة، حيث يحاول المدعون العثور على "ثغرة" يمكنهم من خلالها تأسيس قضية ناجحة.
من المرجح أن تنشأ الدعاوى القضائية ذات التعويضات المالية الأكبر من أدوات الذكاء الاصطناعي التنبئي والمساعد، التي تؤدي إلى إصابات جسدية أو حتى الوفاة.
أدوات الذكاء الاصطناعي التنبئي ليست موثوقة كما يتم الترويج لها غالبًا. فاحتمالية أن تؤدي التشخيصات غير الدقيقة (والأسوأ من ذلك، التحيز التمييزي في التشخيصات غير الدقيقة) إلى أضرار جسدية للفرد هي أمر مقلق من منظور شركات التأمين. هذه الحالات تحديدًا تكون أكثر عرضة للتضخم الاجتماعي أثناء الأحكام والتسويات، مما يؤدي إلى زيادة كبيرة في التعويضات المدفوعة.
هناك أيضًا سباق نحو النمو القائم على قوة الحوسبة. بالنسبة للبعض، يُنظر إلى التنظيم على أنه عائق أمام هذا النمو. وبالنظر إلى المناخ الاقتصادي، فإن العديد من الدول على استعداد لتأجيل التشريعات التنظيمية من أجل الاستفادة من النمو الاقتصادي وتهدئة الناخبين الساخطين.
بعض الدول، مثل المملكة المتحدة، قد تستهدف لوائح محددة لبعض استخدامات الذكاء الاصطناعي — مثل استخدام أدوات الذكاء الاصطناعي لإنشاء صور مخلة بالآداب للأطفال — حيث تفرض عقوبات على من يستخدم الذكاء الاصطناعي لأغراض ضارة، بدلًا من السعي إلى تنظيم الذكاء الاصطناعي بشكل شامل كما تفعل الاتحاد الأوروبي. يبدو أن الاتحاد الأوروبي يتقدم في تنفيذ قانون الذكاء الاصطناعي، ربما مستفيدًا من دروسه السابقة في التعامل المتأخر مع مخاطر وسائل التواصل الاجتماعي.
لماذا لا تكفي نماذج التأمين التقليدية للشركات التي تعتمد على الذكاء الاصطناعي؟ إذ تحتاج الشركات إلى استراتيجيات نقل المخاطر التي تأخذ في الحسبان نقاط الضعف الخاصة بالذكاء الاصطناعي، وليس فقط التهديدات السيبرانية القياسية.
مع تزايد تبني وكلاء الذكاء الاصطناعي في الممارسات التجارية، ستشهد صناعة التأمين ارتفاعًا في المطالبات نتيجة للحوادث الناجمة عن استخدامها. من المرجح أن يؤدي اتساع نطاق المخاطر المحتملة الناشئة عن دمج وكلاء الذكاء الاصطناعي إلى إثارة مطالبات بموجب سياسات المسؤولية الإدارية، والمسؤولية المهنية، والمسؤولية العامة، والتغطية التأمينية ضد التهديدات السيبرانية، وغيرها.
فيما يتعلق بالتهديدات السيبرانية، يعمل هؤلاء الوكلاء عبر محفظة التكنولوجيا ومجموعات البيانات الخاصة بالمؤسسات، مما يعني أن سطح الهجوم قد توسع بشكل كبير. يمكن لهؤلاء الوكلاء أيضًا التحرك جانبيًا عبر الشبكات، مما قد يساعد الجهات الخبيثة في تجاوز تقنيات الفصل الشبكي (Segmentation). وبالتالي، قد يتم تقويض فعالية الفصل الشبكي بسبب استخدام وكلاء الذكاء الاصطناعي.
سيصبح شركات التأمين السيبراني على وجه التحديد أكثر قلقًا بشأن التوسع غير المقصود في نطاق التغطية ضمن اتفاقيات تأمين مسؤولية الخصوصية، والتي لم تكن مصممة أصلاً لتغطية استخلاص البيانات (Scraping) لأغراض تدريب الذكاء الاصطناعي. كانت التغطية تهدف في الأصل إلى التعامل مع انتهاكات الخصوصية الناجمة عن حوادث أمن الشبكات، مثل اختراق نظام حاسوبي وسرقة المعلومات الشخصية.
هذه الممارسات، التي تعتبر جزءًا أساسيًا من تطوير الذكاء الاصطناعي، ستجعل استثناءات "الجمع غير المشروع للبيانات" أكثر أهمية وذات صلة لأولئك الذين لا ينوون توفير مثل هذه التغطية التأمينية.
إخلاء مسؤولية
جميع المعلومات المنشورة على موقعنا الإلكتروني تم عرضها على أساس حسن النية ولأغراض المعلومات العامة فقط. لذا، فأي إجراء أو تصرف أو قرار يقوم به القارئ وفقاً لهذه المعلومات يتحمل مسؤوليته وتوابعه بشكل فردي حصراً ولا يتحمل الموقع أية مسؤولية قانونية عن هذه القرارات.
