بدأ الذكاء الاصطناعي خلال الأعوام القليلة الماضية، بلعب دور مهم في تطور عالم التكنولوجيا، غير أنه المتوقع أن يحتل مراتب أعلى بين ملفات الأمن القومي للدول في السنوات المقبلة.
ومن الملاحظ أن التطور المتزايد والاستخدام الواسع لأدوات الذكاء الاصطناعي، بدأ بإجبار الدول على اتخاذ الاحتياطات اللازمة ضد نقاط الضعف الأمنية.
وتؤكد التقارير المهتمة بهذا المجال، أن تطور الذكاء الاصطناعي سيؤدي إلى زيادة الهجمات السيبرانية، وستصبح القرصنة الالكترونية أكثر فعالية.
وقبيل نهاية 2023، وقعت بعض الدول على سلسلة من مشاريع القوانين التي تتحكم وتقيد استخدام الذكاء الاصطناعي، من أجل منع العواقب السلبية المحتملة لهذا المجال، ولضمان الأمن.
وأصدرت الإدارة الأمريكية في أكتوبر 2023، مرسوماً يهدف إلى الوقاية من المخاطر الناشئة عن الذكاء الاصطناعي.
وبموجب المرسوم الذي تم إعداده بأمر من الرئيس الأمريكي جو بايدن، تم إدخال معايير جديدة لأمن الذكاء الاصطناعي.
وبينما يهدف المرسوم إلى حماية الأمريكيين من المخاطر المحتملة لأنظمة الذكاء الاصطناعي، فإن الشركات التي تقوم بتطوير هذه الأنظمة، مطالبة بمشاركة نتائج الاختبارات الأمنية والمعلومات الهامة الأخرى مع الحكومة.
وبموجب المرسوم، يجب على المؤسسات وضع معايير للاختبارات الأمنية، ومعالجة مخاطر الأمن السيبراني.
ومن أجل حماية الأشخاص من الاحتيال، يتم استحداث قوانين جديدة للكشف عن المحتوى الذي تم إنشاؤه باستخدام الذكاء الاصطناعي والتحقق منه.
وفي دجنبر عام 2023، توصلت مفوضية الاتحاد الأوروبي والبرلمان والدول الأعضاء، إلى اتفاق بشأن أول “قانون للذكاء الاصطناعي” في العالم.
وبموجب القانون الذي أقره الاتحاد الأوروبي، والذي من المتوقع أن يدخل حيز التنفيذ العام المقبل، سيتم تنظيم الذكاء الاصطناعي وفق نهج قائم على احتمالات مخاطر الإضرار بالمجتمع.
وستفرض قواعد أكثر صرامة على أنظمة الذكاء الاصطناعي عالية المخاطر، كما سيتم تحديد معايير واضحة لتمييز الذكاء الاصطناعي عن الأنظمة البرمجية البسيطة.
كما سيتم التأكد من أن الذكاء الاصطناعي لا يؤثر بأي حال من الأحوال، على كفاءة الدول الأعضاء، أو أي منظمة متخصصة في مجال الأمن القومي.
وبالتوازي مع ذلك، فإن دخول أنظمة الذكاء الاصطناعي عالية المخاطر إلى سوق الاتحاد الأوروبي، سيخضع لمجموعة من القواعد والالتزامات.
بدوره، قال ألبير أوزبيلن، رئيس مجلس إدارة مجموعة “بافو” التركية المهتمة بمجال الذكاء الاصطناعي، إن “تطوير تقنيات الذكاء الاصطناعي يوفر فرصا ويخلق مخاطر في مجال الأمن”.
وأضاف أنه “من المتوقع ظهور هجمات إلكترونية أكثر تطوراً في الفترة المقبلة، نتيجة تطور الذكاء الاصطناعي، وستزداد المخاوف بشأن الخصوصية الشخصية”.
أوزبيلن تابع: “من المتوقع أن الأخطاء المحتملة للأنظمة الروبوتية المستقلة التي ستحيط بحياتنا أكثر، ستزيد المخاوف بشأن سلامة الأرواح والممتلكات”.
وشدد على “وجوب إجراء المزيد من الاستثمارات في البنى التحتية للأمن السيبراني، وتطوير حلول أمنية مدعومة بالذكاء الاصطناعي لمواجهة هذه المخاطر”.
كما أكد على ضرورة “استحداث اللوائح القانونية لحماية البيانات الشخصية أثناء تطوير واستخدام تطبيقات الذكاء الاصطناعي، مع مراعاة التوازن بين القدرة التنافسية والقيم الأخلاقية”.
ولكي يتكيف سوق العمل مع التغيرات التي يفرضها الذكاء الاصطناعي، “يحتاج الموظفون إلى إعادة تدريب وتأهيل فيما يخص كيفية استخدام الذكاء الاصطناعي”، وفق أوزبيلن.
وأشار إلى أن الولايات المتحدة “تعتبر من الدول الرائدة على مستوى العالم في مجال الذكاء الاصطناعي، بفضل الشركات العملاقة في القطاع الخاص مثل غوغل، وأمازون، وفيسبوك، ومايكروسوفت والجامعات البحثية”.
ولفت إلى أن “واشنطن تلعب دوراً هاماً في مجال الذكاء الاصطناعي وتطوير تقنياته”.
وأشار إلى أن “الصين تُحقق أيضا نموا سريعا في مجال الذكاء الاصطناعي، وتحاول أن تصبح القوة الثانية التي تنافس الولايات المتحدة عالمياً”.
وعن إجراءات الحكومة الصينية حيال هذا الملف، قال أوزبيلن: إن بكين “حددت تطوير تقنيات الذكاء الاصطناعي كأولوية وطنية، وقامت باستثمارات كبيرة في هذا المجال”.
وأوضح أن “الصين حققت تقدماً كبيراً في أبحاث الذكاء الاصطناعي وتعليمه وتطبيقه، بهدف أن تصبح دولة مكتفية ذاتيا في هذا المجال”.
وبفضل قوة نظامها السياسي، وفق أوزبيلن، “تمكنت الصين من أن تصبح رائدة في مجال تحليل البيانات الضخمة وتقنيات التعرّف على الوجه”.