سيطر الوكلاء الذكاء الاصطناعي على مؤتمر ETHDenver 2026، بدءًا من التمويل الذاتي وصولًا إلى الروبوتات على السلسلة. ولكن بينما يزداد الحماس حول “اقتصادات الوكلاء”، يظهر سؤال أكثر صعوبة: هل تستطيع المؤسسات إثبات ما تم تدريب أنظمتها الذكاء الاصطناعي عليه؟
استهدفت بعض الشركات الناشئة هذه المشكلة، من بينها بيرل لابز، التي ترى أن أنظمة الذكاء الاصطناعي تتطلب سلسلة حضانة قابلة للتحقق لبيانات التدريب الخاصة بها، خاصة في البيئات المنظمة وعالية المخاطر. ركزت الشركة على بناء بنية تحتية للبيانات قابلة للتدقيق ومعتمدة للمؤسسات، وقد جمعت حتى الآن ١٧,٥ مليون $، وكان أحدث جولة تمويل بقيادة Framework Ventures. شملت الجهات المستثمرة الأخرى CoinFund وProtagonist وHashKey وPeer VC. ذكرت الشركة أن أكثر من مليون م annotators أسهموا بأكثر من مليار نقطة بيانات مُسجلة على منصتها.
أجرى BeInCrypto مقابلة مع أحمد رشاد، المدير التنفيذي لشركة بيرل لابز، على هامش مؤتمر ETHDenver 2026. شغل رشاد سابقًا دورًا قياديًا تشغيليًا في Scale AI خلال فترة نموها السريع. خلال الحوار، تحدث عن أصل البيانات وانهيار النماذج والمخاطر العدائية، ولماذا يعتقد أن الذكاء السيادي سيصبح شرطًا أساسيًا لنشر الذكاء الاصطناعي في الأنظمة الحيوية.
BeInCrypto: وصفت بيرل لابز بأنها “طبقة الذكاء السيادي للذكاء الاصطناعي”. ما معنى ذلك عمليًا للقراء الغير منخرطين في نقاشات بنية البيانات التحتية؟
أحمد رشاد: استخدمت كلمة سيادي عن قصد، وتحمل عدة طبقات.
تتمثل المعنى الأكثر حرفية في السيطرة. إذا كنت حكومة، أو مستشفى، أو متعاقدًا دفاعيًا، أو مؤسسة كبيرة تنشر الذكاء الاصطناعي في بيئة عالية المخاطر، يجب أن تملك الذكاء وراء النظام، ولا تعتمد على صندوق أسود لا يمكنك فحصه أو تدقيقه. سيادي تعني أنك تعرف على ماذا تم تدريب ذكاءك الاصطناعي، ومن قام بالتحقق منه، ويمكنك إثبات ذلك. معظم القطاع حاليًا لا يستطيع قول ذلك.
يمثل المعنى الثاني الاستقلالية. التصرف دون تدخل خارجي. وهذا بالضبط ما تحتاجه المؤسسات مثل وزارة الدفاع أو المؤسسات عندما تنشر الذكاء الاصطناعي في بيئات حساسة. لا يمكنك جعل البنية التحتية الحيوية للذكاء الاصطناعي تعتمد على مسارات بيانات لا تسيطر عليها، ولا تستطيع التحقق منها، ولا تستطيع الدفاع ضد التلاعب بها. هذا ليس خطرًا نظريًا. أصدرت كل من NSA وCISA إرشادات تشغيلية حول ثغرات سلسلة إمداد البيانات كقضية أمن وطني.
يتمثل المعنى الثالث في المساءلة. عندما ينتقل الذكاء الاصطناعي من إنتاج المحتوى إلى اتخاذ القرارات، الطبية أو المالية أو العسكرية، يجب أن يكون هناك من يستطيع الإجابة: من أين جاء هذا الذكاء؟ من الذي تحقق منه؟ هل السجل دائم؟ في بيرل، هدفنا أن يتم تسجيل كل مساهمة من كل annotator خبير على السلسلة. لا يمكن إعادة كتابته. هذه الخاصية هي ما تجعل كلمة سيادي دقيقة وليست مجرد طموح.
عمليًا، نبني طبقة للتحقق ومنح الاعتماد. إذا نشر مستشفى نظام تشخيص بالذكاء الاصطناعي، يجب أن يكون قادرًا على تتبع كل نقطة بيانات في مجموعة التدريب إلى محترف معتمد قام بالتحقق منها. ذلك هو الذكاء السيادي. هذا ما نعنيه.
BeInCrypto: كنت جزءًا من Scale AI خلال فترة نموها السريع، بما في ذلك عقود الدفاع الكبرى واستثمار Meta. ما الذي علمك إياه ذلك حول نقاط ضعف مسارات بيانات الذكاء الاصطناعي التقليدية؟
أحمد رشاد: كانت Scale شركة مذهلة. كنت هناك خلال الفترة التي انتقلت فيها من ٩٠ م$ والآن وصلت إلى ٢٩ مليار $، كل ذلك كان يتشكل، وشهدت عن قرب أين تظهر الشقوق.
واجه المشكلة الأساسية حيث أن جودة البيانات والنطاق يتحركان في اتجاهين متعاكسين. عندما تنمو بمقدار 100x، يكون هناك دائما ضغط للتحرك بسرعة: المزيد من البيانات، وسرعة أكبر في الوسم، وتكلفة أقل لكل ملصق. وكانت النتيجة فقدان الدقة والمساءلة. تجد نفسك أمام خطوط معالجة غامضة: تعرف تقريباً ما الذي أدخلته، وتمتلك بعض مؤشرات الجودة للبيانات الخارجة، ولكن ما يحدث في المنتصف يبقى كصندوق أسود. من الذي تحقق من ذلك؟ هل كان مؤهلاً فعلاً؟ هل كان الوسم متسقاً؟ تصبح تلك الأسئلة مستحيلة الحل تقريباً على نطاق واسع باستخدام النماذج التقليدية.
لاحظت أيضا أن العامل البشري يعامل دائما تقريبا على أنه تكلفة يجب تقليلها وليس كقدرة يجب تطويرها. يؤدي النموذج المعاملاتي: الدفع لكل مهمة ثم التحسين لزيادة الإنتاجية مع الوقت إلى تدهور الجودة. يحرق أفضل المساهمين. الأشخاص القادرون على إعطائك وسم بيانات عالي الجودة وبتخصص حقيقي ليسوا نفس الأشخاص الذين سيجلسون لساعات طويلة في نظام المهام الصغيرة المصمم على شكل لعبة مقابل مبالغ زهيدة. يجب عليك بناء النظام بطريقة مختلفة إذا أردت هذا المستوى من الجودة في المدخلات.
جعلني هذا الإدراك أنشئ "بيرل". مشكلة البيانات لا تُحلُّ بتكثيف العمل اليدوي. تُحَلُّ من خلال التعامل مع المساهمين كمحترفين، وبناء نظام منح شهادات قابلة للتحقق داخل المنظومة، وجعل العملية بأكملها قابلة للتدقيق من البداية للنهاية.”
بي إن كريبتو: وصلت إلى مليون موصّف بيانات وسجلت أكثر من مليار نقطة بيانات. معظم منصات توصيف البيانات تعتمد على عمال مجهولين. ما الذي يميز هيكلية نظام السمعة لديكم؟
أحمد رشاد: يكمن الفرق الأساسي في أن سجل عملك على بيرل ملك لك ودائم. عندما تنجز مهمة، يتم تسجيل تلك المساهمة، ومستوى جودتها، وكيفية مقارنتها بالإجماع الخبير، على البلوكشين. لا يمكن تعديلها، أو حذفها، أو إعادة نسبها. مع مرور الوقت، يصبح ذلك شهادة مهنية تراكمية.
قارن ذلك بعمل الحشود المجهول، حيث يُعتبر الشخص قابلاً للاستبدال كلياً. لا يملك أي دافع للجودة لأن سمعته غير موجودة، وكل مهمة منفصلة عن الأخرى. تؤدي هذه الحوافز بالضبط إلى الحد الأدنى المقبول من الجهد.
يعكس نموذجنا ذلك تماماً. يبني المساهمون سجلات عمل قابلة للتحقق. المنصة تعرف الخبرات التخصصية. على سبيل المثال، اختصاصي أشعة ينتج دوماً وسماً عال الجودة للصور الطبية يبني ملفاً شخصياً يعكس ذلك. هذه السمعة تفتح المجال لمهام أعلى قيمة، وتعويض أفضل، وعمل ذو معنى أكبر. العملية تدور ذاتياً: تتراكم الجودة لأن الحوافز تكافئها.
تجاوزنا مليار نقطة بيانية عبر شبكة الموصِّفين لدينا. هذا ليس مجرد رقم ضخم، بل مليار مساهمة بيانات قابلة للتتبع ونسبها لبشر موثَقين. هذا هو أساس بيانات تدريب الذكاء الاصطناعي الجديرة بالثقة، ومن المستحيل هيكلياً تكراره باعتماد حشود مجهولة.”
بي إن كريبتو: يتم مناقشة انهيار النماذج بشكل واسع في الأوساط البحثية لكن نادراً ما نجد ذلك في نقاشات الذكاء الاصطناعي العامة. لماذا تعتقد أن ذلك يحدث، وهل يجب أن يقلق الناس أكثر؟
أحمد رشاد: لا يظهر ذلك في النقاشات العامة لأنه أزمة بطيئة وليست دراماتيكية. انهيار النماذج، حيث تتدهور أنظمة الذكاء الاصطناعي المدربة بشكل متزايد على بيانات تم توليدها من الذكاء الاصطناعي فتفقد التفاصيل الدقيقة وتنضغط إلى المتوسط، لا ينتج عنه حدث مثير لعناوين الأخبار. ينتج عنه تآكل تدريجي للجودة من السهل تجاهله حتى يصبح خطيراً.
تُفسّر الآلية ببساطة: يمتلئ الإنترنت بمحتوى مولد من الذكاء الاصطناعي. النماذج المدربة على هذا المحتوى تتعلم من مخرجاتها بدلاً من المعرفة والخبرة البشرية الحقيقية. كل جيل من التدريب يضخّم التشويهات الناتجة عن الجيل السابق. إنها حلقة تغذية راجعة دون تصحيح طبيعي.
نعم، يجب أن يقلق الناس بشكل خاص في المجالات الحساسة. عندما يؤثر انهيار النماذج على خوارزمية توصية محتوى، ستحصل على توصيات أقل جودة. عندما يؤثر على نموذج تشخيص طبي، أو نظام استدلال قانوني، أو أداة استخبارات دفاعية، تكون النتائج مختلفة تماماً. لا يوجد هامش لتدهور الجودة.
لهذا السبب، اجعل طبقة البيانات التي تم التحقق منها من البشر ضرورية وليست اختيارية مع انتقال الذكاء الاصطناعي إلى البنية التحتية الحرجة. تحتاج باستمرار إلى مصدر موثوق ومتنوع من الذكاء البشري الحقيقي من أجل تدريب النموذج؛ وليس مخرجات الذكاء الاصطناعي التي مرت عبر نموذج آخر. لدينا أكثر من مليون شخص يقومون بالتعليق يمثلون خبرة حقيقية في العشرات من المجالات المختلفة. هذا التنوع هو العلاج لانهيار النماذج. لا يمكنك إصلاح ذلك من خلال البيانات الصناعية أو المزيد من الحوسبة.
اسأل BeInCrypto: عندما يتوسع الذكاء الاصطناعي من البيئات الرقمية إلى الأنظمة الفيزيائية، ما الذي يتغير جوهريًا فيما يتعلق بالمخاطر، والمسؤولية، والمعايير المطبقة على تطويره؟
أحمد رشاد: غير مسار العواقب النهائية. هذا هو جوهر المسألة. نموذج لغوي يهذي ينتج عنه إجابة خاطئة. يمكنك تصحيح ذلك، ووضع إشارة عليه، والمضي قدمًا. لكن نظام جراحي روبوتي يعمل على استنتاج خاطئ، أو مركبة ذاتية القيادة تقوم بتصنيف غير صحيح، أو طائرة بدون طيار تتصرف بناءً على هدف تم تحديده بشكل غير صحيح، تلك الأخطاء ليس لها زر تراجع. تكلفة الفشل تتحول من الإحراج إلى الكارثة.
غير ذلك كل شيء يتعلق بالمعايير التي يجب تطبيقها. في البيئات الرقمية، سُمح بتطور الذكاء الاصطناعي ليتم بسرعة مع تصحيح ذاتي. في الأنظمة الفيزيائية، لا يجوز اعتماد هذا النموذج. عليك التأكد من أن بيانات التدريب خلف هذه الأنظمة تم التحقق منها قبل النشر، وليس تدقيقها بعد وقوع حادث.
يغير كذلك مفهوم المساءلة. في السياقات الرقمية، من السهل نسبيًا توزيع المسؤولية: هل كان الخطأ في النموذج؟ أم في البيانات؟ أم في النشر؟ في الأنظمة الفيزيائية، خاصة عند وقوع ضرر على البشر، سيطالب المنظمون والمحاكم بإجابات واضحة: من قام بتدريب هذا؟ وعلى أي بيانات؟ ومن قام بالتحقق من تلك البيانات وتحت أي معايير؟ الشركات والحكومات التي تستطيع الإجابة على هذه الأسئلة ستكون هي المسموح لها بالعمل. والتي لا تستطيع ستواجه مسؤولية لم تتوقعها.
بنينا بيرل خصيصًا لهذا التحول. تحقق من البشر، بمصادر خبراء، وقابل للتدقيق عبر السلسلة. عندما يبدأ الذكاء الاصطناعي في العمل في المستودعات، وغرف العمليات، وساحات المعارك، يجب أن تصل طبقة الذكاء الأساسية تحته إلى معيار مختلف. هذا المعيار هو ما نبنيه.
اسأل BeInCrypto: ما مدى واقعية تهديد تسميم البيانات أو التدخل العدائي في أنظمة الذكاء الاصطناعي اليوم، خصوصًا على المستوى الوطني؟
قال أحمد رشاد: إن التهديد حقيقي، وموثق، ويتم التعامل معه بالفعل كأولوية للأمن القومي من قبل أشخاص لديهم وصول إلى معلومات سرية حوله.
قضى برنامج GARD التابع لوكالة داربا (ضمان قوة الذكاء الاصطناعي ضد التضليل) سنوات في تطوير دفاعات خاصة ضد الهجمات العدائية على أنظمة الذكاء الاصطناعي، بما في ذلك تسميم البيانات. أصدرت وكالة الأمن القومي NSA ووكالة CISA إرشادات مشتركة في عام 2025 تحذر صراحةً من أن نقاط الضعف في سلسلة توريد البيانات والبيانات التدريبية المعدّلة من قبل جهات خبيثة تمثل تهديدًا موثوقًا لنزاهة أنظمة الذكاء الاصطناعي. هذه ليست أوراقًا نظرية. هذه إرشادات تشغيلية صادرة من وكالات لا تصدر تحذيرات حول مخاطر افتراضية.
شكّل سطح الهجوم تهديدًا كبيرًا. إذا تمكنت من اختراق بيانات تدريب نظام ذكاء اصطناعي يُستخدم في اكتشاف التهديدات أو تشخيص طبي أو تحسين سلاسل الإمداد، فلن تحتاج لاختراق النظام نفسه. فقد أعدت بالفعل كيف يرى العالم. هذا مسار للهجوم أكثر أناقة وصعب الكشف من عمليات التسلل السيبراني التقليدية.
ينبع جزء من وجود العقد البالغة قيمتها 300 مليون دولار التي تملكها Scale AI مع قسم CDAO بوزارة الدفاع لنشر الذكاء الاصطناعي على الشبكات السرية من فهم الحكومة أن استخدام ذكاء اصطناعي مدرب على بيانات عامة غير موثقة في بيئات حساسة غير ممكن. مسألة أصل البيانات ليست أكاديمية في هذا المستوى، بل تشغيلية.
ما ينقص الحديث العام هو أن هذه ليست مشكلة حكومية فقط. أي مؤسسة تطبق الذكاء الاصطناعي في بيئة تنافسية، مثل الخدمات المالية، أو الصناعات الدوائية، أو البنية التحتية الحرجة، لديها تعرض عدائي للبيانات ربما لم تقم برسمه بالكامل بعد. يظل التهديد حقيقيًا. يتم العمل على بناء الدفاعات حتى الآن.
بين إن كريبتو: لماذا لا يمكن لحكومة أو مؤسسة كبيرة بناء طبقة التحقق هذه بأنفسهم؟ ما هو الجواب الحقيقي عندما يعترض أحدهم على ذلك؟
أحمد رشاد: صرح أن البعض يحاول. والذين يحاولون يتعلمون بسرعة ما هي المشكلة الحقيقية.
ابنِ التكنولوجيا بسهولة. الجزء الصعب هو الشبكة. خبراء المجالات الموثقين والمعتمدين، مثل أطباء الأشعة، و اللغويين، و المتخصصين القانونيين، و المهندسين، و العلماء، لا يظهرون بمجرد أنك أنشأت منصة لهم. يجب أن تقوم بتوظيفهم، وتوثيقهم، وبناء الهياكل التحفيزية التي تحافظ على مشاركتهم، وتطوير آليات التوافق على الجودة التي تجعل مساهماتهم ذات معنى على نطاق واسع. يستغرق ذلك سنوات ويتطلب خبرة غالبًا ما تفتقر إليها معظم الوكالات الحكومية و المؤسسات في الداخل.
اشرح أن المشكلة الثانية هي التنوع. عند بناء وكالة حكومية طبقة تحقق خاصة بها، ستعتمد بالضرورة على مجموعة محدودة ومتجانسة نسبيًا. قيمة شبكة الخبراء العالمية ليست فقط في التوثيق؛ بل في تنوع وجهات النظر، و اللغة، و السياق الثقافي، و التخصصات التي لا يمكن الحصول عليها إلا من خلال العمل الحقيقي على نطاق واسع عبر الجغرافيات العالمية. لدينا أكثر من مليون مدقق بيانات. هذا ليس شيئًا يمكن أن تكرره داخليًا.
اشرح أن المشكلة الثالثة هي تصميم الحوافز. الحفاظ على مشاركة المساهمين ذوي الجودة العالية على مدار الوقت يتطلب تعويضًا شفافًا وعادلًا وقابلًا للبرمجة. تتيح البنية التحتية للبلوكتشين ذلك بطريقة لا تستطيع الأنظمة الداخلية تقليدها عادة: سجلات مساهمة غير قابلة للتغيير، ونسبة مباشرة، ودفعات قابلة للتحقق. لم تُبنى أنظمة الشراء الحكومية لتنفيذ ذلك بكفاءة.
وضح أن الجواب الصادق للاعتراض هو: أنت لا تشتري أداة فقط. أنت تدخل إلى شبكة ونظام توثيق تطلب بناؤه سنوات. البديل ليس "ابنها بنفسك"، بل "استخدم ما هو موجود بالفعل أو تحمل مخاطر جودة البيانات المرتبطة بعدم وجودها".
بين إن كريبتو: إذا أصبحت الذكاء الاصطناعي بنية تحتية وطنية أساسية، أين ستقع طبقة الاستخبارات السيادية في هذا النظام بعد خمس سنوات من الآن؟
أحمد رشاد: توقع أنه بعد خمس سنوات، سيبدو ذلك كما يبدو تدقيق الحسابات المالية اليوم،أي طبقة تحقق لا غنى عنها بين البيانات و النشر، مدعومة تنظيميًا ومرتبطة بمعايير مهنية.
اشرح أن تطوير الذكاء الاصطناعي اليوم يتم بدون ما يعادل التدقيق المالي. الشركات تعلن عن بيانات التدريب الخاصة بها بأنفسها. لا يوجد تحقق مستقل، ولا توثيق مهني للعملية، ولا مصادقة من طرف ثالث بأن الذكاء الكامن خلف النموذج يفي بالمعايير المحددة. نحن في المرحلة المبكرة الشبيهة بما قبل قانون ساربينز-أوكسلي في المالية، حيث نعتمد بشكل كبير على الثقة والاعتماد الذاتي.
ومع تطور الذكاء الاصطناعي ليصبح بنية تحتية حاسمة، تدير شبكات الطاقة، و أنظمة الرعاية الصحية، و الأسواق المالية، و شبكات الدفاع، يصبح هذا النموذج غير قابل للاستمرار. ستفرض الحكومات إمكانية التدقيق. سيتطلب التوريد الأصل المثبت للبيانات كشرط للعقود. ستطبق أطر المسؤولية عواقب على الأخطاء التي كان من الممكن تفاديها من خلال التحقق المناسب.
اشرح أن مكان بيرل في هذا النظام هو طبقة التحقق والتوثيق، الكيان الذي يمكنه إنتاج سجل غير قابل للتغيير ومدقق لما تم تدريبه عليه النموذج، ومن قام بذلك، وتحت أي معايير. هذا ليس مجرد خاصية من خصائص تطوير الذكاء الاصطناعي بعد خمس سنوات من الآن. إنه شرط أساسي.
وضح أن النقطة الأوسع هي أن الاستخبارات السيادية ليست مسألة هامشية لمتعاقدي الدفاع. إنها الأساس الذي يجعل الذكاء الاصطناعي قابلاً للنشر في أي سياق يكون للفشل فيه تبعات حقيقية. ومع توسع الذكاء الاصطناعي إلى المزيد من هذه المجالات، يصبح الأساس هو الجزء الأكثر قيمة في النظام.