Trusted

فيتاليك بوتيرين: الذكاء الاصطناعي الفائق قد يصل في وقت أقرب مما تظن

2 mins
بواسطة Ann Shibu
تم التحديث وفقاً لـ عبدالحكيم أبوبكر

الموجز

  • مؤسس إيثريوم المشارك يؤكد على الحاجة إلى تسريع دفاعي للحد من تهديدات الذكاء الاصطناعي الفائق الذكاء.
  • بوتيرين يدعو إلى ربط أنظمة الذكاء الاصطناعي باتخاذ القرارات البشرية لتقليل مخاطر سوء الاستخدام، خاصة من قبل الجيوش.
  • يقترح قواعد المسؤولية، وأزرار "توقف مؤقت" ناعمة، والتحكم في أجهزة الذكاء الاصطناعي لتأخير التطورات الخطيرة.
  • برومو

أثار المؤسس المشارك لإيثريوم فيتاليك بوترين مخاوف بشأن المخاطر المرتبطة بالذكاء الاصطناعي الفائق وضرورة وجود آلية دفاع قوية.

تأتي تعليقات بوترين في وقت زادت فيه المخاوف بشأن سلامة الذكاء الاصطناعي بشكل كبير مع التطور السريع للذكاء الاصطناعي.

خطة بوتيرين لتنظيم الذكاء الاصطناعي: المسؤولية، أزرار التوقف، والسيطرة الدولية

في منشور مدونة بتاريخ 5 يناير، أوضح فيتاليك بوترين فكرته وراء "d/acc أو التسريع الدفاعي"، حيث يجب تطوير التكنولوجيا للدفاع بدلاً من التسبب في الضرر. ومع ذلك، هذه ليست المرة الأولى التي يتحدث فيها بوترين عن المخاطر المرتبطة بـ الذكاء الاصطناعي.

قال بوترين في 2023: "إحدى الطرق التي يمكن أن تجعل الذكاء الاصطناعي الخاطئ العالم أسوأ هي (تقريبًا) أسوأ طريقة ممكنة: يمكن أن يتسبب حرفيًا في انقراض البشر".

تابع بوترين الآن نظرياته من 2023. وفقًا لبوترين، الذكاء الفائق قد يكون على بعد بضع سنوات فقط من الوجود.

كتب بوترين: "يبدو من المحتمل أن لدينا جداول زمنية مدتها ثلاث سنوات حتى الذكاء الاصطناعي العام وثلاث سنوات أخرى حتى الذكاء الفائق. وبالتالي، إذا لم نرغب في تدمير العالم أو الوقوع في فخ لا رجعة فيه، فلا يمكننا فقط تسريع الجيد، بل يجب علينا أيضًا إبطاء السيء".

لتخفيف المخاطر المتعلقة بالذكاء الاصطناعي، يدعو بوترين إلى إنشاء أنظمة ذكاء اصطناعي لامركزية تظل مرتبطة بشكل وثيق باتخاذ القرارات البشرية. من خلال ضمان بقاء الذكاء الاصطناعي أداة في أيدي البشر، يمكن تقليل خطر النتائج الكارثية.

ثم أوضح بوترين كيف يمكن أن تكون الجيوش الجهات المسؤولة عن سيناريو "هلاك الذكاء الاصطناعي". يزداد استخدام الذكاء الاصطناعي العسكري عالميًا، كما شوهد في أوكرانيا وغزة. يعتقد بوترين أيضًا أن أي تنظيم للذكاء الاصطناعي يدخل حيز التنفيذ من المرجح أن يستثني الجيوش، مما يجعلها تهديدًا كبيرًا.

أوضح المؤسس المشارك لإيثريوم خططه لتنظيم استخدام الذكاء الاصطناعي. قال إن الخطوة الأولى في تجنب المخاطر المرتبطة بالذكاء الاصطناعي هي جعل المستخدمين مسؤولين.

أوضح بوتيرين: "بينما الرابط بين كيفية تطوير النموذج وكيفية استخدامه في النهاية غالبًا ما يكون غير واضح، يقرر المستخدم بالضبط كيفية استخدام الذكاء الاصطناعي"، مشيرًا إلى الدور الذي يلعبه المستخدمون.

إذا لم تعمل قواعد المسؤولية، ستكون الخطوة التالية هي تنفيذ أزرار "توقف مؤقت" ناعمة تسمح بتنظيم الذكاء الاصطناعي لإبطاء وتيرة التطورات التي قد تكون خطيرة.

الهدف سيكون القدرة على تقليل الحوسبة المتاحة عالميًا بنسبة ~90-99% لمدة 1-2 سنوات في فترة حرجة، لشراء المزيد من الوقت للبشرية للاستعداد.

قال إنه يمكن تنفيذ التوقف من خلال التحقق من موقع الذكاء الاصطناعي وتسجيله.

نهج آخر سيكون التحكم في أجهزة الذكاء الاصطناعي. أوضح بوتيرين أن أجهزة الذكاء الاصطناعي يمكن تجهيزها بشريحة للتحكم فيها.

ستسمح الشريحة لأنظمة الذكاء الاصطناعي بالعمل فقط إذا حصلت على ثلاث توقيعات من هيئات دولية أسبوعيًا. وأضاف أنه يجب أن تكون واحدة على الأقل من الهيئات غير مرتبطة بالعسكرية.

ومع ذلك، اعترف بوتيرين بأن استراتيجياته تحتوي على ثغرات وهي فقط "حلول مؤقتة".

أفضل منصة كريبتو في الإمارات
أفضل منصة كريبتو في الإمارات
أفضل منصة كريبتو في الإمارات

إخلاء مسؤولية

جميع المعلومات المنشورة على موقعنا الإلكتروني تم عرضها على أساس حسن النية ولأغراض المعلومات العامة فقط. لذا، فأي إجراء أو تصرف أو قرار يقوم به القارئ وفقاً لهذه المعلومات يتحمل مسؤوليته وتوابعه بشكل فردي حصراً ولا يتحمل الموقع أية مسؤولية قانونية عن هذه القرارات.

برعاية
برعاية
للإعلان والمبيعات: https://ar.beincrypto.com/sales/