مؤخراً، أقيم حدث هام يركز على اتجاه دمج الذكاء الاصطناعي وWeb3 في إسطنبول. خلال الحدث، ناقش العديد من خبراء الصناعة بعمق حالة تطبيق تقنيات الذكاء الاصطناعي في مجال التمويل اللامركزي والتحديات الأمنية.
يشير الخبراء إلى أنه مع التطور السريع لنماذج اللغة الكبيرة ووكالات الذكاء الاصطناعي، تتشكل نمط مالي جديد ناشئ - اللامركزية المالية للذكاء الاصطناعي (DeFAI). على الرغم من أن هذه الابتكارات تحمل آفاقًا واسعة، إلا أنها أيضًا تجلب مخاطر جديدة تتعلق بالأمان والاعتداء.
قال أحد التنفيذيين في شركة أمان: "يتطلب ظهور DeFAI منا إعادة النظر في آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية التقليدية، فإن عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي تتأثر بعوامل متعددة، مما يزيد من عدم القدرة على التنبؤ، وهذا لا يزيد فقط من المخاطر، ولكنه يخلق أيضًا فرصًا للمهاجمين المحتملين."
يعتبر وكيل الذكاء الاصطناعي ككيان ذكي قادر على اتخاذ القرارات وتنفيذها بشكل مستقل، وأبرز مثال عليه هو روبوتات التداول بالذكاء الاصطناعي. حاليًا، لا تزال معظم وكلاء الذكاء الاصطناعي تعمل على بنى مركزية، مما يجعلها عرضة لمجموعة متنوعة من الهجمات، مثل هجمات الحقن، وتلاعب النموذج، أو تلاعب البيانات، وغيرها. بمجرد أن يتم اختطاف وكيل الذكاء الاصطناعي، قد يؤدي ذلك ليس فقط إلى خسائر مالية مباشرة، ولكن أيضًا إلى التأثير على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضًا سيناريو هجوم نموذجي: عندما يكون وكيل التداول المدعوم بالذكاء الاصطناعي الذي يديره مستخدمو DeFi يراقب معلومات وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر تحذيرات كاذبة لإغراء الوكيل بتنفيذ عمليات غير مناسبة، مما يؤدي إلى خسائر للمستخدمين وإثارة تقلبات في السوق.
في مواجهة هذه المخاطر، اتفق الخبراء الحاضرون على أن أمان وكلاء الذكاء الاصطناعي يجب أن يكون مسؤولية مشتركة بين المستخدمين والمطورين ووكالات الأمان الخارجية. يحتاج المستخدمون إلى تفويض ومراقبة العمليات عالية المخاطر لوكلاء الذكاء الاصطناعي بحذر؛ يجب على المطورين تنفيذ تدابير دفاعية في مرحلة التصميم، مثل تعزيز كلمات التحفيز، والعزل في بيئة آمنة؛ بينما يجب على شركات الأمان الخارجية توفير مراجعة شاملة لأمان وكلاء الذكاء الاصطناعي.
حذر أحد خبراء الأمن قائلاً: "إذا استمرينا في اعتبار وكلاء الذكاء الاصطناعي 'صندوق أسود'، فإن وقوع حادث أمني في العالم الحقيقي هو مجرد مسألة وقت." واقترح للمطورين الذين يستكشفون اتجاه DeFAI: "سلوك وكلاء الذكاء الاصطناعي يتم تنفيذه أيضاً بواسطة الكود، لذا يحتاج إلى تدقيق أمني احترافي واختبارات اختراق."
مع التطور المستمر لتكنولوجيا البلوكتشين وتحسين البيئة التنظيمية، تزداد اهتمام الصناعة بالفرص والتحديات التي تجلبها دمج الذكاء الاصطناعي وWeb3. كيف يمكن إيجاد توازن بين الابتكار والأمان سيكون الموضوع الرئيس لتطوير DeFAI في المستقبل.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
7
إعادة النشر
مشاركة
تعليق
0/400
CommunitySlacker
· 08-14 14:40
لعب قليلاً وانتهى الأمر، الخطر لا يساوي شيئاً.
شاهد النسخة الأصليةرد0
ETHReserveBank
· 08-14 13:36
又一波 حمقى خداع الناس لتحقيق الربح来了
شاهد النسخة الأصليةرد0
SchrodingerGas
· 08-14 00:35
التقلبات كبيرة جدًا، كم يحتاج الأمر من غاز للوصول إلى الحالة المثلى في باريتو؟
شاهد النسخة الأصليةرد0
GasFeeAssassin
· 08-14 00:32
مرة أخرى، كل من الذكاء الاصطناعي وWeb3، فقط لا نتحدث عن غاز费用暴涨
شاهد النسخة الأصليةرد0
ser_ngmi
· 08-14 00:23
اتجاه كبير آخر لخداع الناس لتحقيق الربح
شاهد النسخة الأصليةرد0
NeverPresent
· 08-14 00:22
من الصعب حقًا تحمل مخاطر الأمان
شاهد النسخة الأصليةرد0
ShadowStaker
· 08-14 00:18
meh... يوم آخر، متجه آخر للهجوم. ستتعرض مرونة الشبكة لضربة كبيرة عندما تبدأ وكلاء الذكاء الاصطناعي في العبث بـ mev
ت融合 الذكاء الاصطناعي وWeb3: تحديات الأمان الناجمة عن صعود اللامركزية في التمويل الذكي
الذكاء الاصطناعي ودمج Web3: صعود المالية اللامركزية المدعومة بالذكاء الاصطناعي وتحدياتها الأمنية
مؤخراً، أقيم حدث هام يركز على اتجاه دمج الذكاء الاصطناعي وWeb3 في إسطنبول. خلال الحدث، ناقش العديد من خبراء الصناعة بعمق حالة تطبيق تقنيات الذكاء الاصطناعي في مجال التمويل اللامركزي والتحديات الأمنية.
يشير الخبراء إلى أنه مع التطور السريع لنماذج اللغة الكبيرة ووكالات الذكاء الاصطناعي، تتشكل نمط مالي جديد ناشئ - اللامركزية المالية للذكاء الاصطناعي (DeFAI). على الرغم من أن هذه الابتكارات تحمل آفاقًا واسعة، إلا أنها أيضًا تجلب مخاطر جديدة تتعلق بالأمان والاعتداء.
قال أحد التنفيذيين في شركة أمان: "يتطلب ظهور DeFAI منا إعادة النظر في آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية التقليدية، فإن عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي تتأثر بعوامل متعددة، مما يزيد من عدم القدرة على التنبؤ، وهذا لا يزيد فقط من المخاطر، ولكنه يخلق أيضًا فرصًا للمهاجمين المحتملين."
يعتبر وكيل الذكاء الاصطناعي ككيان ذكي قادر على اتخاذ القرارات وتنفيذها بشكل مستقل، وأبرز مثال عليه هو روبوتات التداول بالذكاء الاصطناعي. حاليًا، لا تزال معظم وكلاء الذكاء الاصطناعي تعمل على بنى مركزية، مما يجعلها عرضة لمجموعة متنوعة من الهجمات، مثل هجمات الحقن، وتلاعب النموذج، أو تلاعب البيانات، وغيرها. بمجرد أن يتم اختطاف وكيل الذكاء الاصطناعي، قد يؤدي ذلك ليس فقط إلى خسائر مالية مباشرة، ولكن أيضًا إلى التأثير على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضًا سيناريو هجوم نموذجي: عندما يكون وكيل التداول المدعوم بالذكاء الاصطناعي الذي يديره مستخدمو DeFi يراقب معلومات وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر تحذيرات كاذبة لإغراء الوكيل بتنفيذ عمليات غير مناسبة، مما يؤدي إلى خسائر للمستخدمين وإثارة تقلبات في السوق.
في مواجهة هذه المخاطر، اتفق الخبراء الحاضرون على أن أمان وكلاء الذكاء الاصطناعي يجب أن يكون مسؤولية مشتركة بين المستخدمين والمطورين ووكالات الأمان الخارجية. يحتاج المستخدمون إلى تفويض ومراقبة العمليات عالية المخاطر لوكلاء الذكاء الاصطناعي بحذر؛ يجب على المطورين تنفيذ تدابير دفاعية في مرحلة التصميم، مثل تعزيز كلمات التحفيز، والعزل في بيئة آمنة؛ بينما يجب على شركات الأمان الخارجية توفير مراجعة شاملة لأمان وكلاء الذكاء الاصطناعي.
حذر أحد خبراء الأمن قائلاً: "إذا استمرينا في اعتبار وكلاء الذكاء الاصطناعي 'صندوق أسود'، فإن وقوع حادث أمني في العالم الحقيقي هو مجرد مسألة وقت." واقترح للمطورين الذين يستكشفون اتجاه DeFAI: "سلوك وكلاء الذكاء الاصطناعي يتم تنفيذه أيضاً بواسطة الكود، لذا يحتاج إلى تدقيق أمني احترافي واختبارات اختراق."
مع التطور المستمر لتكنولوجيا البلوكتشين وتحسين البيئة التنظيمية، تزداد اهتمام الصناعة بالفرص والتحديات التي تجلبها دمج الذكاء الاصطناعي وWeb3. كيف يمكن إيجاد توازن بين الابتكار والأمان سيكون الموضوع الرئيس لتطوير DeFAI في المستقبل.