عودة

عندما تصبح الوكلاء الذكية مستخدمي التمويل اللامركزي الرئيسيين

اخترنا على Google
author avatar

بواسطة
Bradley Peak

editor avatar

تحرير
Shilpa Lama

02 أبريل 2026 11:08 AST

إذا أصبحت العوامل الذاتية هي المستخدمين المهيمنين للتمويل اللامركزي، ابدأ سلاسل الكتل بأداء وظيفة مختلفة. تعمل كنظم تنسيق وتسوية للبرمجيات بدلاً من كونها مساحات قائمة على توقيت الإنسان، والمشاعر، والمضاربة.

قال فيديريكو فاريولا، الرئيس التنفيذي لمنصة فيمكس، أن هذا يمكن أن يُحسن كيفية تطور النشاط على السلسلة. وقال:

قال فاريولا: "مؤخرًا، عانت أنظمة بلوكتشين لأن العديد من التوكنات فشلت في الوصول إلى سرعة الهروب، وتحول معظم النشاط إلى تداول PvP حيث يحاول المستخدمون استخراج القيمة من بعضهم البعض."

ووفقًا لرأيه، "قد تتصرف العوامل بطريقة أكثر تعاونًا بدلاً من السلوك الاستغلالي، ببساطة لأنها تميل إلى التصرف بعقلانية أكثر من المشاركين البشر."

ركز ديمتري لازاريتشيف، الشريك المؤسس لمنصة وايركس، على كيف أن هذا يغير السلوك:

قال لازاريتشيف: "عندما تصبح العوامل هي الجهات الرئيسية، تبدأ السلسلة في التصرف بشكل أقل كسوق للأشخاص وأكثر كبنية تحتية آلية."

قال لازاريتشيف: "يصبح النشاط مستمراً: العوامل لا تنتظر ساعات السوق، ولا تتعب، ولا تتاجر بناءً على المزاج."

يزيد هذا النشاط من الكفاءة بينما يُدخل نقاط ضغط جديدة. إذا اعتمدت العوامل على مدخلات متشابهة، قال لازاريتشيف:

قال لازاريتشيف: "قد تحصل على سلوك جماعي وحلقات رد فعل حادة," مع تزايد الضغط حول "مساحة الكتلة، ديناميكيات الرسوم، MEV، وجودة ضمانات التنفيذ."

جادل فرناندو ليو أرندا، مدير التسويق في زوميكس، أن الانتقال أعمق من ذلك. وقال:

قال أرندا: "عندما تصبح وكلاء الذكاء الاصطناعي هم المشاركين المهيمنين في نظام بلوكتشين، ننتقل من هيكل سوق يقوده المستخدمون إلى نظام تنسيق اقتصادي ذاتي."

في هذا السياق، ابدأ سلاسل الكتل بالعمل كنظم تنفيذ لاستراتيجيات أصلية للآلة.

أكدت بولين شانغيت، رئيسة قسم الاستراتيجيات في تشينج ناو:

قالت شانغيت: "لم تعد الشبكة تخدم البشر، بل تستضيف الخوارزميات التي لم يعد بإمكان البشر الإشراف عليها في الوقت الفعلي."

خلال مقابلات حصرية مع هؤلاء المديرين التنفيذيين الأربعة في العملات الرقمية، استعرض موقع BeInCrypto كيف يتغير التمويل اللامركزي مع تحول وكلاء الذكاء الاصطناعي إلى مستخدميه الرئيسيين.

لم يتم التوصل بعد إلى إجابة واضحة لمسؤولية الوكيل

إذا تمكن وكلاء الذكاء الاصطناعي من تنفيذ المعاملات، أو نشر العقود، أو نقل الأموال بشكل ذاتي، يصبح من الصعب تحديد المسؤولية عند حدوث خطأ ما.

قال لازاريتشيف إن الاستقلالية لا يمكن أن تكون عذرًا.

قال أن النقطة الأساسية هي أن "الوكيل هو من فعلها" لا يمكن أن تصبح ثغرة في المسؤولية.

يرى أنه لا يزال الوكيل يتصرف "تحت سلطة شخص ما، مع أذونات وحدود يحددها شخص أو منظمة." و يوجه هذا التركيز نحو "من نشرها، من قام بتهيئتها، من يستفيد منها، ومن قدم النموذج وبيئة التنفيذ."

يقول أن الاستجابة ستعتمد على المعايير المألوفة.

ذكر أنه "إذا نشرت نظامًا ذاتيًا يمكنه نقل القيمة، فيجب أن تتوقع وجود تدابير حماية أساسية"، بما في ذلك "إعطاء الإذن، حدود الإنفاق، محاكاة العمليات، قواطع الدوائر، وسجلات التدقيق".

يؤكد شانغيت أن التفكير القانوني الحالي لا يزال يعتمد على أسس قديمة:

قال أننا "لدينا قوانين بالفعل. لكنها تبلغ من العمر 30 سنة وتم إنشاؤها لعالم لم يكن فيه بإمكان البرمجيات الرد." وذكر أن "الأطر التي يستشهد بها الناس مثل ETHOS، وNIST، وPLD الجديدة، كلها ترميمات على نظام لم يُبنى لهذا. نحن بحاجة لشيء جديد. وادعاء غير ذلك هو مجرد تهور."

تشير كذلك إلى مسألة أعمق. قالت أن "قانون الوكالة يفترض إمكانية مقاضاة الوكيل. وكيلك الذكي لا يمكن مقاضاته. لا محفظة له، لا تأمين، ولا شخصية قانونية."

إيقاف الهوية يعني البشر فقط

مع ازدياد تشغيل الأنظمة الذاتية على السلاسل، يصبح للهوية دور مختلف أيضًا. يجب على الشبكات تحديد نوع الفاعل الذي تتفاعل معه وما هو مسموح لهذا الفاعل القيام به.

قال لازاريتشيف أن "DID يمكن أن يساعد، لكنه لن يحل قضية 'البشر مقابل الروبوت' بطريقة واضحة وثنائية."

يرى أن هذا التمييز لا يعكس طريقة عمل هذه الأنظمة. قال أن "العديد من الروبوتات ستكون مشاركين شرعيين،" وأكد أن "الأهم هو القدرة على تحديد نوع الفاعل وما مدى مستوى الثقة الذي يدعمه."

يؤدي هذا إلى فرض ضوابط وصول أكثر تحديداً. قال لازاريتشيف أن "النموذج الأكثر واقعية هو الوصول المتدرج: بيانات اعتماد مختلفة لصلاحيات مختلفة،"

أضاف أن أنظمة الهوية سيتوجب عليها العمل جنبًا إلى جنب مع مراقبة السلوك، خاصة عندما يتعامل الوكلاء مع تصرفات ذات قيمة أعلى.

وافق ليلو أراندا على ذلك. قال إن "في اقتصاد الآلة، 'المستخدم' هو وكيل – وبالتالي يصبح الاعتماد، الحتمية، وقابلية التركيب أولويات التصميم بدلاً من البساطة."

أكدت شانغيت أيضًا هذه النقطة. قالت أن "الروبوتات لم تعد المشكلة. المشكلة في الوكلاء."

تشير آراء الخبراء الثلاثة إلى نموذج تركز فيه الهوية على الدور، الصلاحيات، والمسائلة.

انهيارات أمان المحفظة عند طبقة الأوامر

للمحافظ الذاتية، قد لا يكون أكبر خطر أمني هو سرقة المفاتيح، بل القرارات المتلاعب بها.

يذكر لازاريتشيف أن الحقن الفوري خطير لأنه يستهدف طبقة اتخاذ القرار بدلاً من التشفير. وعندما يقوم وكيل بسحب مدخلات من مصادر خارجية، قد يتمكن المهاجمون من توجيهه للقيام بأشياء غير مرغوب فيها: تغيير عنوان الوجهة، الموافقة على عقد ضار، توسيع الصلاحيات، أو تجاوز تحقق داخلي.

يزداد هذا الخطر بسرعة عندما يمتلك المحفظة سلطة واسعة. قال لازاريتشيف أن: لا تحتاج إلى كسر التشفير إذا استطعت التلاعب بالنظام ليوافق على إجراء خاطئ.

يشير شانجيت إلى نموذج تهديد أكثر تحديدًا.

قال شانجيت أن: الجميع متحمس لحصول وكلاء الذكاء الاصطناعي على محافظ، ولكنني أشعر بقلق أكبر حيال ما سيحدث عندما يتم إقناع تلك المحافظ باستنزاف نفسها.

تستشهد بأووككيبوت كمثال.

قالت أن: أووككيبوت، فبراير هذا العام. وكيل ذكاء اصطناعي بمحفظة تشفير واتصال بالإنترنت. بعد خمسة أيام من الإطلاق، قام بنشر مفاتيحه الخاصة في مستودع جيتهب. وعندما تم سؤاله عن ذلك، أنكر الوكيل ارتكاب أي خطأ. بلغت الخسائر الإجمالية $2 100 فقط لأن شخصًا ما كان ذكيًا بما يكفي ليعطيه خزينة صغيرة. لكن الوكيل لم يتم اختراقه، بل تم التحدث معه حتى قام بالتسريب.

يغير هذا، بطبيعة الحال، نموذج الأمان.

قالت أن: هذا هو سطح الهجوم الجديد. العقود الذكية حتمية؛ نفس المدخلات، نفس المخرجات، قابلة للمراقبة والاختبار. نماذج LLM ليست أيًا من ذلك.

تضيف:

قالت أن: عند إعطاء وكيل ذكاء اصطناعي محفظة، فأنت لا تقوم فقط بتأمين الكود بعد الآن، بل تؤمن صندوقًا أسود يمكن التلاعب به بالكلمات.

تعتبر أن هذا هو سبب عدم كفاية حفظ المفاتيح وحده.

قالت أن: أمان المفتاح الخاص لم يكن أبدًا المتجه الأساسي للتهديد مع محافظ الوكلاء. يمكنك وضع المفاتيح في بيئة تنفيذ موثوقة TEE، أو عزلها عن الذاكرة، أو القيام بجميع الحركات التشفيرية، ومع ذلك لا يزال من الممكن التلاعب بالوكيل لاتخاذ قرار توقيع معاملات ضارة لأن شخصًا ما تحدث إليه وأقنعه بذلك.

يشير الخبيران إلى الحاجة لتعديل تعريف أمان المحفظة. في الاقتصاد القائم على الوكلاء، يشمل ذلك الحفظ بالإضافة إلى ما يستطيع الوكيل تفسيره والتصرف بناءً عليه.

أفكار نهائية

قد يؤثر صعود الاقتصاد القائم على الوكلاء على ما يتم بناء سلاسل الكتل من أجله، ومن يخدمونه، ومكان بداية المخاطر.

إذا أصبحت الأنظمة المستقلة جهات رئيسية مشاركة على السلسلة، فسيتعين على الشبكات دعم أنشطة مستمرة يقودها الذكاء الاصطناعي أثناء التعامل مع مجموعة مختلفة تمامًا من الضغوط المتعلقة بالتنفيذ، والمساءلة، والهوية، والأمان.

كما يقترح فاريولا، قد يكون السوق المدفوع بوكلاء عقلانيين أكثر تعاونًا من البيئات القائمة على المشاعر والاستخلاص التي أنتجتها العملات المشفرة غالبًا.

يُظهر لازاريتشيف وليللو أراندا وشانغيت أيضًا أن هذا المستقبل يجلب أسئلة أكثر صعوبة. عند امتلاك الوكلاء القدرة على إجراء المعاملات والتنفيذ والاستجابة دون تدخل بشري في كل خطوة، يصبح من الأصعب تحديد المسؤولية، ويصبح تعريف الهوية أكثر تعقيدًا، ويمتد أمان المحافظ الرقمية إلى ما يتجاوز حماية المفاتيح نحو اتخاذ القرار ذاته.

في حال أصبحت وكلاء الذكاء الاصطناعي الجهات الأساسية على السلسلة، سيحتاج الويب3 إلى أنظمة تدعم النشاط المستقل مع الحفاظ على المساءلة والتحكم والثقة. قد يثبت أن ذلك لا يقل أهمية عن الأتمتة نفسها.

تنبيه

جميع المعلومات المنشورة على موقعنا الإلكتروني تم عرضها على أساس حسن النية ولأغراض المعلومات العامة فقط. لذا، فأي إجراء أو تصرف أو قرار يقوم به القارئ وفقاً لهذه المعلومات يتحمل مسؤوليته وتوابعه بشكل فردي حصراً ولا يتحمل الموقع أية مسؤولية قانونية عن هذه القرارات.

ممول
ممول