مؤخراً، ظهرت مشكلة جديدة في بروتوكول سياق النموذج (MCP) الخاص بـ OpenAI. هذه الميزة الجديدة تسمح لـ ChatGPT بالاتصال بتطبيقات الخصوصية مثل Gmail والتقويم، لكن الباحث الأمني إيتو مويامورا عرض علنًا: بمجرد معرفة بريدك الإلكتروني، يمكن “اختراق” الذكاء الاصطناعي وسرقة جميع معلوماتك الخاصة.
رأى فيتاليك هذا الخبر وأعاد نشره مباشرة، وأضاف جملة قوية: “لهذا السبب فإن استخدام الذكاء الاصطناعي لإدارة البروتوكولات هو فكرة سيئة.”
أين المشكلة؟
منطق فيتاليك واضح جداً - الذكاء الاصطناعي لا يفهم نوايا البشر الحقيقية على الإطلاق، بل يتم توجيهه فقط من خلال الأوامر واحدة تلو الأخرى.
خذ مثالًا: إذا كان هناك بروتوكول DeFi يستخدم الذكاء الاصطناعي لتوزيع الأموال أو لتحديد مستوى المساهمة، فإن المهاجمين سيجدون طريقة “للخروج” من هذا النموذج، مما يسمح له بتوزيع جميع الأموال مباشرة لنفسه. حتى إن كان الذكاء الاصطناعي ذكيًا، فلن يستطيع صد مثل هذه الهجمات الاجتماعية.
هذا هو السبب في أن تسليم سلطة الحوكمة على السلسلة مباشرةً إلى الذكاء الاصطناعي ينطوي على مخاطر كبيرة - يبدو محايدًا وعادلًا، ولكنه في الواقع آلة اتخاذ قرارات مليئة بالثغرات.
كيف تكون الوضعية الصحيحة؟
اقترح فيتاليك بيوترين حلاً بديلاً: إنشاء نموذج سوق مفتوح
ليس برمجة AI بشكل جامد، بل السماح للجميع بالمساهمة في نموذجهم الكبير الخاص.
يجب أن تخضع هذه النماذج لاختبار آلية “المراجعة من قبل الأقران”.
في النهاية، يقوم هيئة المحلفين البشرية بتقييم واتخاذ القرار
ما هي فوائد القيام بذلك؟
✓ تنوع: وجهات نظر نماذج مختلفة يمكن أن تتوازن مع بعضها البعض
✓ تصحيح سريع: يمكن اكتشاف وتصحيح مشاكل النموذج بسرعة
✓ تحفيز متوافق: كل من مزودي النموذج والمراقبين لديهم دافع لمراقبة المشكلة
باختصار: لا تعطي كل السلطة للذكاء الاصطناعي، يجب أن يبقى الإنسان هو من يقود. هذا يمكن أن يوفر فوائد الذكاء الاصطناعي مع تجنب الأزمات غير المتوقعة.
على الرغم من أن هذه الكلمات تستهدف إدارة الذكاء الاصطناعي، إلا أن المشكلة الأكبر التي تعكسها هي - في موجة الديمقراطية في Web3، التقنية ليست万能، بل إن قدرة الإنسان على الحكم هي الخط الدفاعي الأخير.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
فيتاليك بوتيرين يحذر مرة أخرى: "الحفرة الكبيرة" في إدارة الذكاء الاصطناعي
مؤخراً، ظهرت مشكلة جديدة في بروتوكول سياق النموذج (MCP) الخاص بـ OpenAI. هذه الميزة الجديدة تسمح لـ ChatGPT بالاتصال بتطبيقات الخصوصية مثل Gmail والتقويم، لكن الباحث الأمني إيتو مويامورا عرض علنًا: بمجرد معرفة بريدك الإلكتروني، يمكن “اختراق” الذكاء الاصطناعي وسرقة جميع معلوماتك الخاصة.
رأى فيتاليك هذا الخبر وأعاد نشره مباشرة، وأضاف جملة قوية: “لهذا السبب فإن استخدام الذكاء الاصطناعي لإدارة البروتوكولات هو فكرة سيئة.”
أين المشكلة؟
منطق فيتاليك واضح جداً - الذكاء الاصطناعي لا يفهم نوايا البشر الحقيقية على الإطلاق، بل يتم توجيهه فقط من خلال الأوامر واحدة تلو الأخرى.
خذ مثالًا: إذا كان هناك بروتوكول DeFi يستخدم الذكاء الاصطناعي لتوزيع الأموال أو لتحديد مستوى المساهمة، فإن المهاجمين سيجدون طريقة “للخروج” من هذا النموذج، مما يسمح له بتوزيع جميع الأموال مباشرة لنفسه. حتى إن كان الذكاء الاصطناعي ذكيًا، فلن يستطيع صد مثل هذه الهجمات الاجتماعية.
هذا هو السبب في أن تسليم سلطة الحوكمة على السلسلة مباشرةً إلى الذكاء الاصطناعي ينطوي على مخاطر كبيرة - يبدو محايدًا وعادلًا، ولكنه في الواقع آلة اتخاذ قرارات مليئة بالثغرات.
كيف تكون الوضعية الصحيحة؟
اقترح فيتاليك بيوترين حلاً بديلاً: إنشاء نموذج سوق مفتوح
ما هي فوائد القيام بذلك؟
✓ تنوع: وجهات نظر نماذج مختلفة يمكن أن تتوازن مع بعضها البعض ✓ تصحيح سريع: يمكن اكتشاف وتصحيح مشاكل النموذج بسرعة ✓ تحفيز متوافق: كل من مزودي النموذج والمراقبين لديهم دافع لمراقبة المشكلة
باختصار: لا تعطي كل السلطة للذكاء الاصطناعي، يجب أن يبقى الإنسان هو من يقود. هذا يمكن أن يوفر فوائد الذكاء الاصطناعي مع تجنب الأزمات غير المتوقعة.
على الرغم من أن هذه الكلمات تستهدف إدارة الذكاء الاصطناعي، إلا أن المشكلة الأكبر التي تعكسها هي - في موجة الديمقراطية في Web3، التقنية ليست万能، بل إن قدرة الإنسان على الحكم هي الخط الدفاعي الأخير.