Close Menu

    اشترك في نشرتنا الإلكترونية مجاناً

    اشترك في نشرتنا الإلكترونية مجاناً.

    اختيارات المحرر

    هبة صينية لحماية غابات الصنوبر في لبنان

    2025-12-16

    ماغي بو غصن لزوجها جمال سنان: "تبقى حبيبي وصديقي ورفيق دربي"

    2025-12-16

    كيف يرفع الملح "الخفي" ضغط الدم دون أن تشعر؟

    2025-12-16
    فيسبوك X (Twitter) الانستغرام تيكتوك يوتيوب واتساب تيلقرام RSS
    الثلاثاء, ديسمبر 16, 2025
    • إتصل بنا
    فيسبوك X (Twitter) الانستغرام تيكتوك يوتيوب تيلقرام واتساب لينكدإن RSS
    الصدارة نيوز
    • الرئيسية
    • لبنان
    • عربي ودولي
    • خاص
    • اقتصاد
    • تكنولوجيا
    • مشاهير
    • صحة ومجتمع
    أنت الآن تتصفح:الرئيسية»تكنولوجيا»ما مخاطر تقنيات الذكاء الاصطناعي إذا وصلت للأيدي الخاطئة؟
    ما-مخاطر-تقنيات-الذكاء-الاصطناعي-إذا-وصلت-للأيدي-الخاطئة؟
    ما مخاطر تقنيات الذكاء الاصطناعي إذا وصلت للأيدي الخاطئة؟
    تكنولوجيا

    ما مخاطر تقنيات الذكاء الاصطناعي إذا وصلت للأيدي الخاطئة؟

    2024-05-10

    ذكرت رويترز الأربعاء أن إدارة الرئيس الأميركي جو بايدن تستعد لفتح جبهة جديدة في جهودها لحماية الذكاء الاصطناعي المطور في الولايات المتحدة من الصين وروسيا عبر خطط أولية لتأمين أكثر نماذجه تطورا.

    ويخشى باحثون من الحكومة والقطاع الخاص من أن أعداء واشنطن قد يستخدمون هذه النماذج، التي تحلل كميات هائلة من النصوص والصور لتلخيص المعلومات وتوليد المحتوى، في شن هجمات رقمية شديدة أو حتى في تصنيع أسلحة بيولوجية ناجعة.

    ماهي أبرز التهديدات التي يشكلها الذكاء الاصطناعي:

    1) التزييف العميق والتضليل المعلوماتي

    – يظهر التزييف العميق على مواقع التواصل الاجتماعي، فيخلط بين الحقيقة والخيال في عالم السياسات الأميركية القائم على الاستقطاب.
    – التزييف العميق هو مقاطع فيديو تبدو واقعية لكنها غير حقيقية أنشأتها خوارزميات الذكاء الاصطناعي المدربة على مقاطع فيديو كثيرة عبر الإنترنت.
    – على الرغم من توفر هذه الوسائط المولدة رقميا منذ عدة سنوات، فقد استفحلت قدراتها على مدى العام المنصرم بفعل مجموعة من أدوات “الذكاء الاصطناعي التوليدي” الجديدة مثل أداة (ميد جيرني) التي تجعل إنشاء مقاطع تزييف عميق مقنعة أمرا يسيرا ورخيص التكلفة.
    – قال باحثون في تقرير بمارس إن من الممكن استخدام شركات مثل (أوبن إيه.آي) و(مايكروسوفت) أدوات إنشاء الصور التي تعمل بالذكاء الاصطناعي في توليد صور قد تروّج لمعلومات مضللة ذات صلة بالانتخابات وبالتصويت، وذلك على الرغم من وجود سياسات في كلتا الشركتين لمكافحة إنشاء المحتوى المضلل.
    – تستغل بعض حملات التضليل المعلوماتي بكل بساطة قدرة الذكاء الاصطناعي على محاكاة المقالات الإخبارية الحقيقية كوسيلة لنشر المعلومات الزائفة.
    – قالت وزارة الأمن الداخلي الأميركية في تقييمها للتهديدات الداخلية لعام 2024 إنه في العام الماضي على سبيل المثال روّج موقع إخباري صيني يستخدم منصة ذكاء اصطناعي توليدي ادعاء زائفا كان متداولا في وقت سابق ومفاده أن الولايات المتحدة تدير مختبرا في كازاخستان لتصنيع أسلحة بيولوجية لتستخدمها في مواجهة الصين.
    – ذكر جيك سوليفان مستشار الأمن القومي بالبيت الأبيض خلال فعالية للذكاء الاصطناعي في واشنطن يوم الأربعاء، أن المشكلة ليس لها حل سهل لأنها تجمع بين قدرة الذكاء الاصطناعي و”نية جهات رسمية وغير رسمية لاستخدام التضليل المعلوماتي على نطاق كبير في تخريب الديمقراطيات وترويج الدعاية وتشكيل الوعي في العالم”.

    2) أسلحة بيولوجية

    • يتزايد قلق مجتمع المخابرات ومراكز البحوث والسلك الأكاديمي في الولايات المتحدة إزاء مخاطر تشكلها جهات أجنبية عدائية تملك حق الوصول إلى قدرات الذكاء الاصطناعي المتطورة.
    • أشار باحثون في شركة (غريفون ساينتيفيك) ومؤسسة (راند) البحثية إلى أن نماذج الذكاء الاصطناعي المتطورة يمكنها تقديم معلومات من شأنها المساعدة في تصنيع أسلحة بيولوجية.
    • درست “غريفون” كيفية استخدام جهات عدائية النماذج اللغوية الكبيرة في إلحاق الضرر في مجال علوم الحياة، وخلصت إلى أنها “قادرة على تقديم معلومات قد تدعم جهة شريرة في إنشاء سلاح بيولوجي من خلال تقديم معلومات مفيدة ودقيقة وتفصيلية في كل خطوة من خطوات هذا المسار”.
    • النماذج اللغوية الكبيرة هي برامج كمبيوتر تستعين بمجموعات ضخمة من النصوص لتوليد ردود على الاستفسارات.
    • خلصت “غريفون” إلى أن أي نموذج لغوي كبير قد يوفر على سبيل المثال معلومات يصل مستواها إلى ما بعد مرحلة الدكتوراه لحل مشكلات تطرأ خلال العمل على فيروس قادر على نشر وباء.
    • أظهرت مؤسسة (راند) البحثية أن النماذج اللغوية الكبيرة قد تسهم في التخطيط لهجوم بيولوجي وتنفيذه، وخلصت إلى أن أي نموذج لغوي كبير قد يقترح، على سبيل المثال، أساليب لنثر مادة البوتوكس السامة في الهواء.

    3) أسلحة رقمية
    – أفادت وزارة الأمن الداخلي الأميركية في تقييمها للتهديدات الداخلية لعام 2024 بأن الجهات الرقمية من المرجح أن تستخدم الذكاء الاصطناعي في “تطوير أدوات جديدة لتمكين شن هجمات رقمية أوسع نطاقا وأكثر سرعة وكفاءة ومراوغة” على البنية التحتية الحساسة، بما في ذلك خطوط أنابيب النفط والغاز والسكك الحديدية.
    – أوضحت الوزارة أن الصين وجهات معادية أخرى تطور تكنولوجيا ذكاء اصطناعي من شأنها تقويض الدفاعات الرقمية الأميركية، بما في ذلك برامج الذكاء الاصطناعي التوليدي التي تدعم هجمات البرمجيات الخبيثة.
    – بينت “مايكروسوفت” في تقرير بفبراير أنها تعقبت جماعات تسلل إلكتروني تابعة للحكومتين الصينية والكورية الشمالية، بالإضافة إلى المخابرات الحربية الروسية والحرس الثوري الإيراني، في ظل محاولتها إحكام هجماتها عبر الإنترنت بالاستعانة بالنماذج اللغوية الكبيرة.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني تيلقرام واتساب

    المقالات ذات الصلة

    المفوضية الأوروبية تستعد لفتح تحقيق جديد ضد “ميتا”

    تكنولوجيا 2025-12-04

    الذكاء الاصطناعي يثير قلق الموظفين في ألمانيا

    تكنولوجيا 2025-12-01

    رولان أبي نجم يمثّل لبنان والعالم العربي في مؤتمر Global Policy Dialogue 2025

    تكنولوجيا 2025-11-28
    الأخيرة

    هبة صينية لحماية غابات الصنوبر في لبنان

    2025-12-16

    3 مشروبات صحية تنظف الكبد بشكل طبيعي

    2024-04-16

    اسرائيل: استهداف مبنيين لـ”الحزب” جنوبًا

    2024-04-16

    الأردن: ممنوع استخدام المجال الجوي لأي غاية

    2024-04-16
    الأكثر مشاهدة

    بفستان أسود ضيق أبرز قوامها.. ممثلة شهيرة بإطلالة جديدة والجمهور يغازلها (صور)

    2025-12-16 مشاهير

    ترامب يعلن ارتباط نجله الأكبر للمرة الثالثة

    2025-12-16 عربي ودولي

    بعد فضيحة المخدرات.. إقالة إعلامية بارزة من منصبها!

    2025-12-16 مشاهير
    اختيارات المحرر

    هبة صينية لحماية غابات الصنوبر في لبنان

    2025-12-16

    ماغي بو غصن لزوجها جمال سنان: "تبقى حبيبي وصديقي ورفيق دربي"

    2025-12-16

    كيف يرفع الملح "الخفي" ضغط الدم دون أن تشعر؟

    2025-12-16

    مع كل متابعة جديدة

    اشترك في نشرتنا الإلكترونية مجاناً

    © 2025 جميع الحقوق محفوظة.
    • من نحن
    • إتصل بنا

    اكتب كلمة البحث ثم اضغط على زر Enter