المنبر التونسي (كاسبرسكي ) – يُعدّ الذكاء الاصطناعي سلاحًا ذا حدّين، إذ يتيح من جهة فرصًا واعدة لتحقيق مكاسب ملموسة على مستوى الكفاءة ويوفر إمكانات جديدة لكل من الشركات والأفراد، لكنه يشكل، من جهة أخرى، أداة قد تُستغل بشكل غير مشروع من قبل مجرمي الفضاء الرقمي، لاسيّما في تسهيل إنتاج البرمجيات الخبيثة وتكثيف الهجمات الإلكترونية.
وتُظهر نتائج دراسة حديثة أجرتها كاسبرسكي أن 52% من الشركات على مستوى العالم تشعر بالقلق إزاء فقدان ثقة عملائها ما لم تُعزّز دفاعاتها في مواجهة التهديدات السيبرانية المدعومة بالذكاء الاصطناعي. وفي السياق ذاته، أفادت 41% من المؤسسات المستجوبة بأنها تفتقر إلى الخبرات اللازمة لفهم طبيعة هذه التهديدات الخارجية والتعامل معها بشكل فعّال.
وفي استجابة مباشرة لهذه التحديات، قدّمت كاسبرسكي “توصيات لتطوير ونشر أنظمة الذكاء الاصطناعي بشكل آمن“، وهي وثيقة مرجعية توفّر إرشادات عملية لمساعدة المؤسسات على اعتماد الذكاء الاصطناعي بطريقة مسؤولة ومتزنة. كما أصدرت دليلاً مكمّلاً بعنوان “مبادئ الاستخدام الأخلاقي للذكاء الاصطناعي في مجال الأمن السيبراني“، يرسّخ مجموعة من القواعد الأخلاقية التي يجب احترامها خلال تطوير واستعمال هذه التقنية الحساسة.
تجدر الإشارة إلى أن الذكاء الاصطناعي يشهد نموًا متسارعًا، ما يجعله في متناول جميع الفاعلين، بمن فيهم أولئك ذوو النوايا السيئة. فقد أصبح بعض مجرمي الإنترنت يوظفونه بالفعل لتوسيع نطاق عملياتهم التخريبية.
وقد كشفت نتائج استطلاع أجرته كاسبرسكي أن غالبية المؤسسات تدرك حجم التهديد، إذ عبّر 58% منها عن خشيتها من تسريب البيانات الحساسة، بينما أبدى 52% قلقهم من تراجع ثقة العملاء والخسائر المالية المحتملة، إذا لم يتم اتخاذ إجراءات وقائية مناسبة. ومع ذلك، تظل المعرفة التقنية الضرورية غير متوفرة لدى العديد من الفاعلين، حيث صرّحت 41% من الشركات بعدم تلقيها معلومات كافية من الخبراء المتخصصين حول الهجمات السيبرانية المعتمدة على الذكاء الاصطناعي.
وانطلاقًا من هذا الواقع، تدعو كاسبرسكي إلى اعتماد مجموعة واضحة من التوصيات التي تضمن تطويرًا مسؤولًا وآمنًا لأنظمة الذكاء الاصطناعي، بما يقلّص من فرص التلاعب وسوء الاستخدام. وتجسيدًا لهذا الالتزام، وقّعت الشركة سنة 2024 على “الميثاق الأوروبي للذكاء الاصطناعي“، وهي مبادرة أطلقتها المفوضية الأوروبية لتهيئة المؤسسات لاعتماد أول إطار تشريعي شامل ينظّم استخدام الذكاء الاصطناعي داخل الاتحاد الأوروبي. كما قامت كاسبرسكي في دجنبر من العام ذاته بعرض توصياتها التقنية خلال ورشة عمل نظمت ضمن فعاليات المنتدى العالمي لحوكمة الإنترنت 2024 بالرياض. وترتكز هذه المبادئ على أربع مرتكزات أساسية: الشفافية، والأمن، والرقابة البشرية، وحماية البيانات.
وفي هذا السياق، صرّح السيد يوخن ميشيلز، مدير الشؤون العامة لمنطقة أوروبا لدى كاسبرسكي، قائلاً: «يشكّل الذكاء الاصطناعي الأخلاقي حجر الزاوية لبناء الثقة، وضمان الامتثال، وتحقيق النجاح المستدام للمؤسسات. إنه يسمح بتقليص المخاطر المرتبطة بانتهاكات البيانات والتهديدات السيبرانية، دون الإخلال بالتشريعات التنظيمية الصارمة كقانون الذكاء الاصطناعي الأوروبي. وفي هذا العصر الرقمي المتسارع، لم يعد استخدام الذكاء الاصطناعي مسؤولية تقنية فحسب، بل أضحى مسألة تتعلق بالنزاهة المؤسسية واستمرارية الأعمال. إن التوصيات التي نقدّمها لتأمين مراحل تطوير وتطبيق هذه التقنية، إلى جانب المبادئ الأخلاقية المصاحبة لها، تتيح للمؤسسات الاستفادة منها بطريقة آمنة ومُجدية، مع الحفاظ على ميزاتها التكنولوجية».
من جهتها، تؤكد السيدة ليليانا أكوستا، المؤسسة والرئيسة التنفيذية لشركة Thinker Soul، وهي شركة استشارية تعتمد مقاربات فلسفية وأخلاقية لمواكبة التحولات الرقمية لدى المؤسسات: «يُوظف الذكاء الاصطناعي بشكل متزايد لتعزيز الأمن السيبراني، بدءًا من كشف التهديدات ووصولاً إلى التنبؤ بالهجمات. ولكن من يُحدّد مجال استعمال هذه الأدوات؟ في حالات الاختراق، غالبًا ما يدفع الأفراد والفئات الهشة الثمن الأغلى، مقارنة بالمؤسسات الكبرى. نحن في حاجة إلى أنظمة لا تكتفي بالكفاءة التشغيلية، بل تتسم كذلك بالأمن، والنزاهة، والعدالة في تقاسم السلطة والمسؤوليات والتداعيات داخل الفضاء الرقمي».
وفي معرض حديثه عن تجربته الميدانية، صرّح الخبير في الأمن السيبراني كليمان دومينغو: «لقد عاينتُ خلال الأشهر الأخيرة استخدامًا مكثفًا للذكاء الاصطناعي من طرف مجرمي الإنترنت. هؤلاء يدركون قوته، ويستغلونه بالفعل لتحسين هجماتهم. لهذا، يصبح من الضروري إدماج الذكاء الاصطناعي ضمن استراتيجيات الدفاع السيبراني في أقرب وقت ممكن. ويتطلب هذا فهمًا معمّقًا لطرق تفكير الخصوم – بل وحتى التماهي مع منطقهم أحيانًا – من أجل التصدي لهم بفعالية. في هذا السياق، يمكن أن يشكّل الذكاء الاصطناعي أداة فعالة، بشرط أن يُستخدم بقدرٍ عالٍ من الوعي والمسؤولية، لحماية البيانات، والبُنى التحتية، والخصوصية، والمصالح الحيوية للمؤسسات».
الشفافية، والأمن، والرقابة، وحماية البيانات: أسس جوهرية لاستخدام أخلاقي للذكاء الاصطناعي
في إطار التزامها بدعم اعتماد ذكاء اصطناعي مسؤول وأخلاقي، أعدّت كاسبرسكي مجموعة من التوصيات والمبادئ الهادفة إلى توجيه المؤسسات نحو أفضل الممارسات.
تشمل “التوصيات الخاصة بتطوير ونشر أنظمة الذكاء الاصطناعي بشكل آمن” أبرز الجوانب المرتبطة بمراحل التصميم، والتنفيذ، والتشغيل، وذلك دون التركيز على تطوير النماذج الأساسية. وتغطي هذه التوصيات ما يلي:
- التوعية والتدريب في مجال الأمن السيبراني: تؤكد كاسبرسكي على أهمية إشراك الإدارة العليا وتقديم تدريبات متخصصة للموظفين، مع الحرص على تحديث المحتوى التدريبي لمواكبة التهديدات المتجددة.
- نمذجة التهديدات وتقييم المخاطر: توصي الشركة باعتماد أدوات مثل STRIDE وOWASP للتنبؤ بالثغرات المحتملة، وتقييم المخاطر التي تشمل تسميم البيانات وسوء استخدام النماذج.
- أمن البنية التحتية السحابية: تشدد التوصيات على ضرورة تعزيز أمن الحوسبة السحابية من خلال التشفير، وتقسيم الشبكات، وتطبيق مبدأ “الثقة الصفرية”، وإجراء تحديثات منتظمة.
- أمن سلسلة التوريد وحماية البيانات: تحذر كاسبرسكي من المخاطر المرتبطة باستخدام أدوات طرف ثالث، وتدعو إلى إجراء تدقيقات صارمة، وتثبيت مجسات أمنية، واتباع سياسات خصوصية مشددة.
- الاختبار والتحقق: تؤكد التوصيات على أهمية المتابعة المستمرة لأداء النماذج، واختبارها لرصد الانحرافات والهجمات العدائية، مع تقسيم مجموعات البيانات ومراجعة منطق اتخاذ القرار.
- التصدي لهجمات التعلم الآلي: تشمل التوصيات تدريب النماذج على سيناريوهات هجومية، والكشف عن الشذوذات، واعتماد تقنيات تقليص التعقيد (distillation) لمزيد من الأمان.
- التحديثات الأمنية والصيانة: تحث كاسبرسكي على تحديث الأدوات بشكل دوري، والمشاركة في برامج كشف الثغرات، لتعزيز قدرة الأنظمة على مقاومة الهجمات.
- الامتثال للمعايير الدولية: تدعو الشركة إلى احترام القوانين مثل اللائحة العامة لحماية البيانات (GDPR) وقانون الذكاء الاصطناعي الأوروبي، مع الحرص على إجراء مراجعات دورية لضمان الامتثال الأخلاقي والقانوني.
أما “مبادئ الاستخدام الأخلاقي لأنظمة الذكاء الاصطناعي في الأمن السيبراني” فهي تهدف إلى ضمان الشفافية، والأمن، والرقابة البشرية، وحماية البيانات، من خلال:
- الشفافية: إعلام المستخدمين باستخدام الذكاء الاصطناعي وشرح طريقة عمله، وتطوير أنظمة قابلة للتفسير، ووضع آليات تحقق لضمان موثوقية النتائج.
- الأمن: إعطاء الأولوية للأمن خلال جميع مراحل التطوير، وتقليص الاعتماد على بيانات التدريب الخارجية، واعتماد حلول سحابية تتوفر على ضمانات أمنية ملائمة.
- الرقابة البشرية: ضمان وجود إشراف بشري دائم على الأنظمة، وربط القرارات التقنية بالخبرة البشرية المتخصصة.
- حماية البيانات: احترام خصوصية المستخدمين، والحد من المعالجة غير الضرورية، وتطبيق أساليب إخفاء الهوية، وضمان سلامة البيانات من خلال تدابير تقنية وتنظيمية مناسبة.
نبذة عن كاسبرسكي
تُعد كاسبرسكي شركة عالمية متخصصة في الأمن السيبراني وحماية الخصوصية، تأسست عام 1997، وتُعد من أبرز اللاعبين في هذا المجال على مستوى العالم. نجحت الشركة حتى اليوم في تأمين أكثر من مليار جهاز ضد التهديدات السيبرانية والهجمات الموجهة، بفضل خبرتها الواسعة في مجال الحماية الرقمية، والتي تُترجم باستمرار إلى حلول مبتكرة وخدمات مصممة لحماية الأفراد، والشركات، والبنى التحتية الحيوية، والجهات الحكومية.
يضم عرض كاسبرسكي مجموعة واسعة من الحلول تشمل حماية شاملة للحياة الرقمية للأفراد، ومنتجات وخدمات أمنية متخصصة للشركات، بالإضافة إلى حلول متقدمة ضمن مفهوم “Cyber Immunity” للتصدي للتهديدات الرقمية المتطوّرة. وتساهم الشركة اليوم في حماية مصالح ملايين المستخدمين وأكثر من 200,000 مؤسسة حول العالم. للمزيد من المعلومات، يُرجى زيارة الموقع: https://www.kaspersky.fr