عاجل

الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته لتجنب مخاطر الاستخدام

الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته

استحوذ الذكاء  الاصطناعي(AI) على اهتمام دول العالم، بعد ظهور أداة Chat GPT أواخر العام 2022، لقدرته على تحقيق العديد من الفوائد المتنوعة للمجتمعات، لكن الأمر لا يخلو من وجود مخاطر ينبغي الانتباه إليها.

ولكي تتحقق الذكاء الاصطناعي بشكل كامل، يجب تطويره بطريقة آمنة ومسؤولة؛ خصوصًا عندما تكون وتيرة التحديث عالية، ومخاطر الأمن السيبراني المحتملة لا تزال مجهولة.

كما هو الحال مع أي تقنية ناشئة، هناك دائمًا قلق بشأن ما يعنيه ذلك بالنسبة للأمن السيبراني.

وصُمم هذا الدليل لمساعدة المديرين وأعضاء مجلس الإدارة وكبار المسؤولين التنفيذيين (ذوي الخلفية غير الفنية) على فهم بعض المخاطر والفوائد المترتبة على استخدام أدوات الذكاء الاصطناعي.

ولا يحتاج المديرون إلى أن يكونوا خبراء تقنيين، ولكن يجب أن يعرفوا ما يكفي عن المخاطر المحتملة من الذكاء الاصطناعي حتى يتمكنوا من مناقشة المشكلات مع الموظفين الرئيسيين.

الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته
الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته

ما هو الذكاء الاصطناعي؟

يمكن وصف الذكاء الاصطناعي (AI) بأنه “أي نظام كمبيوتر يمكنه أداء المهام التي تتطلب عادةً ذكاءً بشريًا”.

ويمكن أن يشمل ذلك: الإدراك البصري، أو إنشاء النص، أو التعرف على الكلام، أو الترجمة بين اللغات.

وجاء أحد أبرز التطورات الحديثة، مجال الذكاء الاصطناعي التوليدي، والذي يتضمن أدوات تمكن من إنتاج أنواع مختلفة من المحتوى؛ بما في ذلك النصوص والصور والـ”فيديو” (ومجموعات لأكثر من نوع واحد في الأدوات “متعددة الوسائط”).

معظم أدوات الذكاء الاصطناعي الإنتاجية، موجهة نحو مهام أو مجالات محددة، وعلى سبيل المثال، يتيح Chat GPT للمستخدمين بشكل فعال “طرح سؤال”، كما تفعل عند إجراء محادثة مع “روبوت” الدردشة، ويمكن لأدوات مثل DALL-E إنشاء صور رقمية من أوصاف اللغة الطبيعية.

ويبدو من المحتمل أن النماذج المستقبلية ستكون قادرة على إنتاج محتوى لمجموعة واسعة من المواقف، وقد أبلغ كل من Open AI وGoogle عن نجاحهما عبر مجموعة من المعايير لنماذج GPT-4 وGemini الخاصة بهما.

وعلى الرغم من انتشار هذا التطبيق على نطاق أوسع، لا يوجد إجماع حول ما إذا كان الذكاء العام الاصطناعي ــ الرؤية البائسة للمستقبل حيث يتجاوز النظام المستقل القدرات البشرية ــ سيصبح حقيقة واقعة على الإطلاق.

الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته
الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته

كيف يعمل الذكاء الاصطناعي؟

 إنشاء معظم أدوات الذكاء الاصطناعي، باستخدام تقنيات التعلم الآلي (ML)، عندما تجد أنظمة الكمبيوتر أنماطًا في البيانات (أو تحل المشكلات تلقائيًا) دون الحاجة إلى برمجتها بشكل صريح بواسطة الإنسان.

ويمكّن التعلم الآلي، النظام من “التعلم” بنفسه حول كيفية استخلاص المعلومات من البيانات، مع الحد الأدنى من إشراف المطور البشري.

على سبيل المثال، تعد نماذج اللغات الكبيرة (LLMs) نوعًا من الذكاء الاصطناعي التوليدي، الذي يمكنه إنشاء أنماط مختلفة من النص تحاكي المحتوى الذي أنشأه الإنسان.

ولتمكين ذلك، يجري “تدريب” LLM على كمية كبيرة من البيانات النصية، والتي تستخرج عادةً من الإنترنت. اعتمادًا على LLM.  ومن المحتمل أن يتضمن ذلك صفحات الـ”ويب” وغيرها من المحتويات مفتوحة المصدر مثل: البحث العلمي والكتب ومنشورات وسائل التواصل الاجتماعي.

وتغطي عملية تدريب LLM حجمًا كبيرًا من البيانات، بحيث لا يمكن تصفية كل هذا المحتوى، وبالتالي يُحتمل تضمين المواد “المثيرة للجدل” (أو ببساطة غير الصحيحة) في نموذجها.


ما هي مخاطر الأمن السيبراني في الذكاء الاصطناعي؟

لا شك أن الذكاء الاصطناعي التوليدي (وبرامج الماجستير في القانون على وجه الخصوص) مثير للإعجاب من حيث قدرته على إنشاء مجموعة كبيرة من المحتوى المقنع في مواقف مختلفة.

ومع ذلك.. فإن جودة المحتوى الذي تنتجه هذه الأدوات لا تقل جودة عن البيانات التي يتم التدريب عليها، كما تحتوي التقنية على بعض العيوب الخطيرة؛ بما في ذلك:

  • قد يُخطئ في تقييم بعض الأمور ويقدم بيانات غير صحيحة كحقائق (عيب يُعرف باسم “هلوسة الذكاء الاصطناعي”).
  • يُمكن أن يكون متحيزًا، وغالبًا ما يكون ساذجًا عند الرد على الأسئلة الرئيسية.
  • يمكن إقناعه بإنشاء محتوى سام ويكون عرضة لـ “هجمات الحقن السريعة”.
  • قد يتم إتلافه عن طريق التلاعب بالبيانات المستخدمة لتدريب النموذج (تقنية تعرف باسم “تسميم البيانات”).

تعد هجمات الحقن الفوري إحدى نقاط الضعف الأكثر انتشارًا في LLMs، ويحدث هذا عندما يُنشيء المهاجم مدخلات مصممة لجعل النموذج يتصرف بطريقة غير مقصودة.

وقد يتضمن ذلك التسبب في إنشاء محتوى مسيء، أو الكشف عن معلومات سرية، أو إثارة عواقب غير مقصودة في نظام يقبل مدخلات لم يتحقق منها.

وتحدث هجمات تسميم البيانات عندما يعبث أحد المهاجمين ببيانات تدرب نموذج الذكاء الاصطناعي عليها، لإنتاج نتائج غير مرغوب فيها (سواء من حيث الأمان أو التحيز).

ومع تزايد استخدام حاملي شهادات LLM على وجه الخصوص لتمرير البيانات إلى تطبيقات وخدمات الطرف الثالث؛ فإن المخاطر الناجمة عن هذه الهجمات يرجح لها أن تنمو، كما وصفنا في مدونة NCSC “التفكير في أمان أنظمة الذكاء الاصطناعي”.

الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته
الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته

 


كيف يجمع القادة بين الأمن السيبراني والذكاء الاصطناعي

المبادئ التوجيهية لتطوير نظام الذكاء الاصطناعي الآمن، التي نشرها مركز NCSC وتطورت بالتعاون مع وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية CISA، ووكالات من 17 دولة أخرى، تقدم المشورة بشأن تصميم أنظمة الذكاء الاصطناعي وتطويرها ونشرها وتشغيلها.

وتساعد الإرشادات المؤسسات على تحقيق نتائج آمنة، بدلاً من توفير قائمة ثابتة من الخطوات التي يجب على المطورين تطبيقها.

من خلال التفكير في الأمان العام للأنظمة التي تحتوي على مكونات الذكاء الاصطناعي، يمكن لأصحاب المصلحة على جميع مستويات المؤسسة الاستعداد للاستجابة لفشل النظام، والحد بشكل مناسب من التأثير على المستخدمين والأنظمة التي تعتمد عليهم.

ومن الأهمية بمكان أن الحفاظ على أنظمة الذكاء الاصطناعي آمنة يتعلق بالثقافة التنظيمية والعمليات والاتصالات بقدر ما يتعلق بالتدابير التقنية.

كما يجب دمج الأمان في جميع مشروعات الذكاء الاصطناعي وسير العمل في مؤسستك منذ البداية.

ويُعرف هذا بالنهج “الآمن حسب التصميم“، ويتطلب قيادة قوية تضمن أن يكون الأمان أولوية عمل، وليس مجرد اعتبار فني.

فيما يحتاج القادة إلى فهم العواقب التي قد تترتب على المنظمة في حالة تعرض سلامة نظام الذكاء الاصطناعي أو توفره أو سريته للخطر.

وقد تكون هناك عواقب تشغيلية ومتعلقة بالسمعة، ويجب أن يكون لدى مؤسستك خطة استجابة مناسبة، باعتبارك مديرًا، كما يجب أيضًا أن تكون على دراية خاصة بالمخاوف الخاصة بالذكاء الاصطناعي بشأن أمن البيانات.

مع ضرورة فهم ما إذا كانت مؤسستك متوافقة قانونيًا وتلتزم بأفضل الممارسات المعمول بها عند التعامل مع البيانات المتعلقة بهذه الأنظمة.

من المهم أيضًا ملاحظة أن عبء استخدام الذكاء الاصطناعي، بأمان لا ينبغي أن يقع على عاتق المستخدمين الفرديين لمنتجات الذكاء الاصطناعي؛ فلن يتمتع العملاء عادةً بالخبرة اللازمة لفهم المخاطر المتعلقة بالذكاء الاصطناعي أو معالجتها بشكل كامل.

وهذا يعني أن مطوري نماذج وأنظمة الذكاء الاصطناعي، يجب أن يتحملوا المسؤولية عن النتائج الأمنية لعملائهم.

The post الأمن السيبراني والذكاء الاصطناعي.. ما تحتاج إلى معرفته لتجنب مخاطر الاستخدام appeared first on مجلة عالم التكنولوجيا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى