بعدما أصبحت تطبيقات وروبوتات الذكاء الاصطناعي جزءًا من حياة البشر. برزت في الأفق مشكلات جديدة تتعلق بتأثير تلك التقنيات، ليس فقط على عقول البشر. بل، أيضًا على معتقداتهم وتوجهاتهم. مثلًا، أحيانا لا تصيب تطبيقات الذكاء الاصطناعي ويمكن أن تعاني من "الهلوسة".
في هذه المقالة، عزيزي القارئ العربي، سنزيل الغموض عن مصطلح "هلوسة الذكاء الاصطناعي AIs". حيث نستكشف كيف يشكل مشكلة كلية وخطر على عقول البشر. كما سنناقش الجهود الجارية للتخفيف من حدته.
خلال السنوات الأخيرة، أدى التطور السريع للذكاء الاصطناعي (AI) إلى ظهور نماذج لغة متطورة. على سبيل المثال، كان ChatGPT من OpenAI في مقدمة المشاريع التي جعلت الذكاء الاصطناعي ككل يحتل الحيز الأكبر من عناوين وسائل الإعلام والأخبار، وحتى منشورات مواقع التواصل الاجتماعي.
في حين أن هذه الأدوات القوية قد أحدثت ثورة في مختلف الصناعات. إلا أنها تأتي أيضًا بمجموعة من التحديات التي تثير القلق. تعتبر ظاهرة "الهلوسة" من أكثر القضايا إثارة للقلق.
ما هي الهلوسة في الذكاء الاصطناعي؟
تشير الهلوسة في الذكاء الاصطناعي أو الهلوسة الاصطناعية (تسمى أحيانًا التخيل أو الوهم) إلى توليد المخرجات التي قد تبدو معقولة (استجابة واثقة)، ولكنها إما غير صحيحة من الناحية الواقعية، أو لا علاقة لها بالسياق المحدد. غالبًا ما تظهر هذه المخرجات (البيانات) من التحيزات المتأصلة في نموذج AI, أو الافتقار إلى فهم العالم الحقيقي، أو قيود بيانات التدريب.
على سبيل المثال، قد يولد روبوت دردشة مهلوس لا يحتوي على بيانات تدريب، فيما يتعلق بإيرادات شركات العملات المشفرة رقمًا عشوائيًا (مثل تريليون دولار) تصنفه الخوارزمية بثقة عالية. ثم ينتقل إلى القول بشكل خاطئ وبشكل متكرر أن عائدات شركات التشفير تبلغ تريليون دولار. على الرغم من عدم توفير سياق يوضح أن الرقم كان نتاج ضعف خوارزمية التوليد.
بعبارة أخرى واختصار، فإن نظام الذكاء الاصطناعي "يهلوس" بمعلومات لم يتم تدريبه عليها بشكل صريح، مما يؤدي إلى ردود غير موثوقة أو مضللة.
تحدث هلوسة أنظمة الذكاء الاصطناعي عند وقوع خلل في إنتاج اللغة عن طريق أنظمة توليد اللغات مثل ChatGPT، ويكون الخلل في مضمون المعلومات، على الرغم من أن الجملة التي يكتبها تكون بشكل عام متوازنة لغويًا ونحويًا.
هذه المشاكل، تجعل أخبار مؤسسات إعلامية كبرى مثل ورويترز، وواشنطن بوست، وبي بي سي، ونيويورك تايمز في محل شك. خاصةً أن هذه المؤسسات تستخدم الذكاء الاصطناعي لإنتاج المحتوى وإضفاء الطابع الشخصي، على إنتاجهم الإعلامي وتحسين تفاعل الجمهور.
رغم أنها تفيد كثيرًا إلا أن هلوستها خطر على العقل البشري
تعد "الهلوسة" من أكثر المشكلات الشائعة في روبوت المحادثة ChatGPT، التي قد تعيق توظيفه في العديد من المجالات. وتظهر هذه المشكلة عندما يكتب روبوت المحادثة إجابات تبدو معقولة ولكنها غير صحيحة أو لا معنى لها. ولا يظهر هذا السلوك لمرة واحدة فقد بل قد يتكرر عدة مرات.
تشبه خطورة ChatGPT الخطر الذي يشكله ذلك الفرد الذي يجلس في مقهى بشكل دائم، ولديه إجابات لكل الأسئلة وفي كل المجالات. لكن ChatGPT لها إمكانية تحقيق "الدقة المطلقة". والتي تثير بعض المخاوف الأخلاقية المحتملة.
في أغسطس 2022، حذرت شركة Meta أثناء إصدارها BlenderBot 3 من أن النظام كان عرضة لـ "الهلوسة". ثم في 15 نوفمبر، كشفت الشركة النقاب عن عرض توضيحي لـ Galactica، المصمم لـ "تخزين المعرفة العلمية والجمع بينها والتفكير بها".
جاء المحتوى الذي تم إنشاؤه بواسطة Galactica مصحوبًا بالتحذير "قد تكون المخرجات غير موثوقة! نماذج اللغات عرضة للهلوسة." في إحدى الحالات، عندما طُلب من Galactica صياغة ورقة حول إنشاء الصور الرمزية، استشهد بورقة وهمية من مؤلف حقيقي يعمل في المجال ذي الصلة. وبعد يومين فقط (17 نوفمبر)، سحبت ميتا مشروعها بسبب الهجوم وعدم الدقة.
عمومًا تعتبر هلوسه الذكاء الاصطناعي مشكلة ومعضلة بسبب:
- أزمة الثقة في التكنولوجيا: عندما تنتج أنظمة الذكاء الاصطناعي معلومات غير صحيحة أو مضللة. فقد يفقد المستخدمون الثقة في التكنولوجيا. مما يعيق اعتمادها في مختلف القطاعات.
- المخاوف أخلاقية: يمكن أن تؤدي المخرجات المهلوسة إلى إدامة الصور النمطية الضارة أو المعلومات المضللة. مما يجعل أنظمة الذكاء الاصطناعي مشكلة أخلاقية.
- التسبب في صنع القرار الخاطئ: يتم استخدام أنظمة الذكاء الاصطناعي بشكل متزايد لتوجيه القرارات الحاسمة في مجالات مثل التمويل والرعاية الصحية والقانون. يمكن أن تؤدي الهلوسة إلى خيارات سيئة مع عواقب وخيمة.
- الآثار القانونية: قد تعرض المخرجات غير الدقيقة أو المضللة مطوري الذكاء الاصطناعي والمستخدمين إلى مسؤوليات قانونية محتملة.
كيف يمكن تجنب الهلوسة في الذكاء الاصطناعي؟
كشف الدراسات المتعددة للذكاء الاصطناعي أن الناس الناس يضعون كثيرا من الثقة في هذه الأدوات. خصوصا أدوات الذكاء الاصطناعي التي تستخدم في الاستشارات الصحية أو المالية والتمويل وغيرها من الموضوعات عالية المخاطر. وفي الحقيقة هذا يبدو مخيفًا. فذكاء البشر محدود وذكاء الآلة أكثر محدودية.
وعى الرغم من مخاوف الهلوسة من طرف أنظمة الذكاء الاصطناعي. إلا أنه هنالك دائما بعض الخطوات التي من شأنها تحسين هذه النماذج لتقليل الهلوسة، وتشمل هذه:
- لا تطرح الأسئلة الغامضة: لنفترض أنك تبحث عن طرق لمساعدة عملائك في التغلب على عائق معين. إذا كانت طرحك للموضوع مبهمًا. فلا تتوقع من الذكاء الاصطناعي أن يكون واضحًا. قد يقوم النظام بانتحال شخصية شركة يمكنها مساعدتك.
- بيانات التدريب المحسّنة: يمكن أن يساعد ضمان تدريب أنظمة الذكاء الاصطناعي على مجموعات بيانات متنوعة ودقيقة وذات صلة بالسياق في تقليل حدوث الهلوسة. احذر يأخذ الذكاء الاصطناعي البيانات التي تدخلها ليستخدمها لاحقًا كمخرجات في مكان ما!
- ابحث في مصادر أخرى وتحقق: الذكاء الاصطناعي مثل ChatGPT شديد الحماس في سرد القصص. بينما تدرك شركات أبحاث الذكاء الاصطناعي مثل OpenAI تمامًا مشاكل الهلوسة، وتقوم بتطوير نماذج جديدة تتطلب المزيد من ردود الفعل البشرية، لا يزال من المرجح جدًا أن يقع الذكاء الاصطناعي في كوميديا من الأخطاء. عندما تستخدم تطبيقات الذكاء الاصطناعي لبناء معلومات مهمة، تحقق من البيانات والمخرجات التي تحصل عنها في أماكن أخرى.
- اطلب ما تريد واخبره بما لا تريد: من الممكن توقع استجابة الذكاء الاصطناعي بناءً على ما تطلبه، وتجنب بشكل مسبق تلقي المعلومات التي لا تريدها. مثلًا، يمكنك إخبار ChatGPT عن النتائج التي الا تريدها.
في الأخير، ونظرًا لأن ChatGPT وأنظمة الذكاء الاصطناعي المماثلة أصبحت أكثر انتشارًا. فإن معالجة ظاهرة الهلوسة أمر ضروري لتحقيق الإمكانات الكاملة لهذه التقنيات.
من خلال فهم أسباب الهلوسة والاستثمار في الأبحاث للتخفيف من حدوثها، يمكن لمطوري ومستخدمي الذكاء الاصطناعي المساعدة في ضمان استخدام هذه الأدوات القوية بشكل مسؤول وفعال.
إخلاء مسؤولية
جميع المعلومات المنشورة على موقعنا الإلكتروني تم عرضها على أساس حسن النية ولأغراض المعلومات العامة فقط. لذا، فأي إجراء أو تصرف أو قرار يقوم به القارئ وفقاً لهذه المعلومات يتحمل مسؤوليته وتوابعه بشكل فردي حصراً ولا يتحمل الموقع أية مسؤولية قانونية عن هذه القرارات.