Eagle Intelligence Reports

فجوة حوكمة الذكاء الاصطناعي في الولايات المتحدة

ايغل انتيلجنس ريبورتس • يناير 29, 2026 •

أدّى التقاعس الفيدرالي عن تنظيم الذكاء الاصطناعي في الولايات المتحدة الأمريكية إلى نشوء منظومة متباينة من القوانين على مستوى البلاد، بشكل أضعف قدرتها التنافسية وهدّد ريادتها في مجال تكنولوجيا قد يشكّل مسار الحضارة في المستقبل، ففي العام الماضي، تم إصدار أكثر من 145 قانوناً مرتبطاً بالذكاء الاصطناعي على مستوى الولايات الأمريكية، تبنّى بعضها، مثل: كولورادو، وكاليفورنيا، وتكساس، ويوتاه، أطراً تنظيمية مختلفة.

اليوم، تختلف مقاربات الولايات في تنظيم الذكاء الاصطناعي اختلافاً كبيراً، حيث تطبّق ولاية كولورادو إجراءات لحماية المستهلك قائمة على تقييم المخاطر للأفراد المتأثرين بتقنيات الذكاء الاصطناعي، أما كاليفورنيا، فتركّز على قطاعات محددة، مع تنظيم متطلبات الشفافية والذكاء الاصطناعي التوليدي.

وعلى النقيض من ذلك، تشدّد ولاية تكساس على التنظيم الذاتي للصناعة، مع إلزام الشركات بالامتثال للتشريعات القائمة، بما في ذلك قوانين الخصوصية البيومترية، بينما تفرض ولاية يوتاه متطلبات إفصاح محدودة للمستهلكين، ترتبط فقط بالسياقات عالية المخاطر والبيانات الحساسة.

كما تختلف العقوبات ومتطلبات الامتثال بشكل كبير بين الولايات، ما يفرض على الشركات العاملة في كل ولاية التقيّد بمجموعة من الالتزامات التنظيمية المتباينة، ويعقد إدارة العمليات على المستوى الوطني.

وهذا يشير إلى أن هذا النظام المتباين يفيد شركات التكنولوجيا الكبرى التي تمتلك الموارد الكافية للتعامل مع أطر تنظيمية متعددة، في حين يضر بالمنافسين الأصغر حجماً، كما يُضعف النفوذ الأمريكي في صياغة المعايير العالمية للذكاء الاصطناعي، وفي ظل غياب نهج فيدرالي أمريكي موحّد، يقدّم الاتحاد الأوروبي والصين أطراً وطنية واضحة سدّت الفراغ الذي خلّفه التقاعس الأمريكي، ما حدّ من قدرة واشنطن على التأثير في سياسات الذكاء الاصطناعي العالمية، رغم ريادتها التقنية في هذا المجال.

في ظل غياب نهج فيدرالي موحّد للذكاء الاصطناعي يقدّم الاتحاد الأوروبي والصين أطراً واضحة تسد الفراغ الذي خلّفه التقاعس الأمريكي

أمريكا مُتلقيةً لا صانعة للقواعد

لا يزال قطاع الذكاء الاصطناعي منقسماً حول الكيفية المثلى لتنظيم هذه التقنية، حيث تؤيد شركة أنثروبيك الأمريكية المتخصصة في الذكاء الاصطناعي تنظيماً مدروساً، في حين يعارض ديفيد ساكس، مسؤول الذكاء الاصطناعي والعملات الرقمية في إدارة ترامب، القواعد على مستوى الولايات، واصفاً إياها بأنها شكل من أشكال الاستحواذ أو السيطرة التنظيمية.

ولكن مع استمرار تقاعس الحكومة الفيدرالية، تُخاطر الولايات المتحدة بازدياد التعقيدات التنظيمية وترسيخ معايير عالمية ضعيفة، ما قد يُحوّلها من واضعة للقواعد إلى متلقية لها في تشكيل مستقبل الذكاء الاصطناعي، حيث يثير هذا الانقسام تساؤلات حول مدى قدرة الوكالات الفيدرالية على توظيف الذكاء الاصطناعي بفعالية عبر طيف واسع من الوظائف الحيوية، بدءاً من الدفاع الوطني، ومروراً بالتنبؤات الجوية، وصولاً إلى تتبع الأمراض.

ومع ذلك، رغم أن تشريعات الولايات تعالج مخاوف حقيقية تتعلق بالذكاء الاصطناعي، إلا أن شلل الكونغرس يمثل إخفاقاً تنظيمياً مقارنةً بإطار الاتحاد الأوروبي القائم على تقييم المخاطر، وقدرة الصين على فرض لوائح موحدة بين عشية وضحاها، إذ لا تزال الولايات المتحدة عالقة في مأزق حزبي، وسط ضغوط جماعات المصالح وحالة عدم اليقين بشأن كيفية تنظيم صناعة تتغير بسرعة، من دون كبح الابتكار.

 استغلال الفراغ الفيدرالي

تستغل الولايات الأمريكية الثغرات في اللوائح الفيدرالية لجذب الشركات، مستخدمةً أدوات مثل الإعفاءات الضريبية، والرقابة المتساهلة، والقوانين الميسّرة للأعمال التي لا تشملها القوانين الفيدرالية، فعلى سبيل المثال، جذبت ولاية ساوث داكوتا البنوك من خلال تقديم لوائح مالية أقل صرامة، بينما تتصدر ولاية ديلاوير مجال تأسيس الشركات بفضل محاكمها المتخصصة.

ومع ذلك، تواجه شركات الذكاء الاصطناعي عقبات تختلف بشكل كبير عن تلك التي تحدّ من عمل البنوك، فالبنك الوطني يمكنه تطبيق معدلات داكوتا الجنوبية على جميع فروعه، بينما يجب على شركات الذكاء الاصطناعي الامتثال للوائح كل ولاية تعمل فيها، فالعمل في كاليفورنيا يتطلب الالتزام بمجموعة من القواعد، بينما تفرض كولورادو مجموعة أخرى مختلفة، ويؤدي هذا التباين في تنظيم الذكاء الاصطناعي بين الولايات إلى إرهاق الشركات وإثقال كاهلها بالتزامات الامتثال المتعددة.

التباين في تنظيم الذكاء الاصطناعي بين الولايات يؤدي إلى إرهاق الشركات وإثقال كاهلها بالتزامات الامتثال المتعددة

الفوضى التنظيمية والعمليات الحكومية

ضمن هذا السياق، لا يقتصر الانقسام على مشاكل الامتثال المؤسسي فحسب، بل يمتد ليشمل وظائف حكومية أساسية، إذ تعمل الوكالات الفيدرالية على المستوى الوطني، لكنها تعتمد بشكل متزايد على أنظمة الذكاء الاصطناعي التي تطوّرها جهات من القطاع الخاص، والتي تخضع بدورها لنفس التعقيدات التنظيمية، فإذا أرادت كل من وكالة التحقيقات الفيدرالية (FBI)، وإدارة مكافحة المخدرات (DEA)، ومكتب الكحول والتبغ والأسلحة النارية والمتفجرات (ATF) تبادل المعلومات الاستخباراتية عبر منصات تحليل الذكاء الاصطناعي المشتركة، فقد تواجه بسهولة مشكلات عندما يقوم المتعاقدون بتخصيص الأنظمة لتتوافق مع متطلبات الولايات المختلفة.

وهذا يشير إلى أنه أمام المنظومة المتباينة لقوانين حماية البيانات على مستوى الولايات، غالباً ما يلجأ المقاولون إلى تطبيق أكثر المعايير صرامة، والتي لا تتوافق دائماً مع احتياجات العمليات الفيدرالية، فالمقاول الذي يعمل لصالح وزارة الأمن الداخلي ويعالج البيانات البيومترية، على سبيل المثال، يواجه التزامات قانونية مختلفة حسب ما إذا كانت البيانات قد جُمعت في كاليفورنيا أو تكساس أو إلينوي، رغم أن الاحتياجات الأمنية الفيدرالية تظل ثابتة عبر حدود الولايات.

ببساطة، فإن تعقيد الامتثال لا يرفع التكاليف فحسب، بل يمكن أن يضعف أيضاً العمليات الفيدرالية، فعندما تفرض قوانين الولايات متطلبات متضاربة حول كيفية تعامل أنظمة الذكاء الاصطناعي مع البيانات الحساسة، تواجه الوكالات الفيدرالية خياراً صعباً: “إما الخلي عن أنظمة البيانات الخاصة بها للامتثال لمتطلبات عدة ولايات مع قبول تقليص قدرات الذكاء الاصطناعي، أو المخاطرة بمواجهة دعاوى قانونية من المدعين العامين للولايات”، حيث يشبه هذا النهج المعقد اختراعات روب جولدبرغ ويعيق التعاون بين الوكالات، إذ أصبح تبادل المعلومات يعتمد بشكل متزايد على تحليلات الذكاء الاصطناعي المقيدة بأكثر متطلبات الولايات صرامة.

من الناحية العملية، يمنح هذا الولايات التي تمتلك أشد اللوائح سلطة غير رسمية لوضع السياسات على المستوى الوطني، ومن المفارقات أن القانون الفيدرالي، الذي من المفترض أن يسبق قوانين التجارة بين الولايات والأمن القومي، يجد نفسه مقيداً بدلاً من ذلك بنظام تنظيمي مقسم يشبه البلقنة.

قوانين الذكاء الاصطناعي

في الوقت الحالي، يبدو أن المشهد التنظيمي أصبح أكثر تعقيداً، فقد تم تقديم أكثر من 1000 مشروع قانون مرتبط بالذكاء الاصطناعي على الصعيد الوطني خلال 2024–2025، وتمت الموافقة على نحو 145 مشروعاً، معظمها يستهدف قطاعات محددة أو لجاناً دراسية، حيث لم تعتمد سوى أربع ولايات هي: كولورادو، وكاليفورنيا، ويوتاه، وتكساس،لوائح شاملة تحكم استخدام الذكاء الاصطناعي في القطاع الخاص.

حتى بين الولايات الأربع التي تمتلك قوانين شاملة للذكاء الاصطناعي، تبرز اختلافات رئيسية، فالقانون في كولورادو يركز على حماية المستهلك، ويغطي الأفراد الذين يتعاملون مع أنظمة ذكاء اصطناعي “عالية المخاطر” في مجالات مثل العمل، والإسكان، والتعليم، والرعاية الصحية، والخدمات المالية، كما يقدم إرشادات مفصلة حول تقييم المخاطر.

أما كاليفورنيا، فلا تمتلك قانوناً شاملاً للذكاء الاصطناعي، لكنها أصدرت قوانين قطاعية تنظم الشفافية والذكاء الاصطناعي التوليدي، محددة الالتزامات الخاصة بكل قطاع، حيث جاءت هذه الإجراءات بعد أن استخدم الحاكم غافن نيوسوم حق النقض ضد مشروع قانون شامل للذكاء الاصطناعي، والقانون البديل الذي دعمه ينظم الشفافية وبيانات التدريب في قطاعات محددة، ويعالج، على عكس قانون كولورادو، أنظمة الذكاء الاصطناعي التوليدي التي تنتج محتوى أصلياً.

فراغ القيادة  

تميل ولاية تكساس إلى التنظيم الذاتي للصناعة، ما يميزها عن الولايات التي تعتمد أساليب تشريعية مفصلة، فرغم أن شركات الذكاء الاصطناعي لا تواجه رقابة واسعة على مستوى الولاية، إلا أنها ملزمة بالامتثال لقوانين محددة، مثل قانون الخصوصية البيومترية في تكساس، ما يبرز مدى التفاوت في نطاق تنظيم الذكاء الاصطناعي بين الولايات.

كما يُعدّ قانون ولاية يوتا أكثر تحديداً ويركّز على حماية المستهلك، إذ يُلزم شركات الذكاء الاصطناعي بالإفصاح عن استخدام الذكاء الاصطناعي التوليدي خلال أنشطة محددة “عالية المخاطر”، مثل معالجة البيانات الحساسة أو اتخاذ القرارات في مجالات حيوية كالتمويل والقانون والطب، فعلى عكس الأطر القانونية الأوسع نطاقاً في الولايات الأخرى، تقتصر متطلبات يوتا على تفاعلات محددة بدلاً من الإشراف الشامل.

من جانب آخر، يختلف كذلك توقيت وشدة قوانين الولايات؛ إذ يبدأ تطبيق نظام إنفاذ القانون في كولورادو في يونيو 2026، بينما تسري قوانين كاليفورنيا حالياً، كما تتباين العقوبات بشكل كبير، فكاليفورنيا يمكنها فرض غرامات تصل إلى عشرات الملايين من الدولارات، في حين تفرض ولايات أخرى عقوبات أقل، أو تخصص في بعض الحالات عقوبات جنائية صارمة على جرائم مثل تزوير الانتخابات باستخدام تقنيات التزييف الرقمي المتقدم.

ويشير ذلك إلى أن غياب إطار فيدرالي موحّد يتيح للاتحاد الأوروبي والصين التأثير على المعايير العالمية للذكاء الاصطناعي، ما يقيّد قدرة الولايات المتحدة على توجيه البروتوكولات الدولية وحماية القيم الديمقراطية، كما يخلق غياب القيادة الفيدرالية نقاط ضعف استراتيجية غير متوقعة تتعلق بالأمن القومي والدفاع.

الأنظمة ذات الاستخدام المزدوج، وهي تقنيات لها تطبيقات مدنية وعسكرية على حد سواء، تتعرض بشكل متزايد لحالة من الفراغ القانوني، فأنظمة الرؤية الحاسوبية المدربة على بيانات مدنية للتعرف على الصور يمكن إعادة توظيفها من قبل محللي الاستخبارات العسكرية، بينما يمكن استخدام نماذج الذكاء الاصطناعي المصممة لتحسين خدمات الشحن التجاري لدعم سلاسل الإمداد البحرية، ومع ذلك، تظل هذه الأنظمة خاضعة لمجموعة متنوعة من اللوائح الحكومية المصممة لحماية المستهلك المدني، وليس للأولويات الأمنية الوطنية.

  القوانين المتضاربة والأمن القومي

تؤدي قوانين الذكاء الاصطناعي المتضاربة بين الولايات إلى وضع شركات المقاولات الدفاعية في منطقة رمادية قانونية، ما يُبطئ الابتكار ويرفع التكاليف، فعلى عكس الصين، التي تستطيع توجيه التكنولوجيا المدنية بسرعة نحو التطبيقات العسكرية، تواجه الولايات المتحدة تأخيرات مضرة، وإلى حين تدخّل الكونغرس، من المرجح أن يستمر الانقسام التنظيمي في تقويض ريادة الذكاء الاصطناعي وفعالية الأمن القومي على حد سواء.

تؤدي قوانين الذكاء الاصطناعي المتضاربة بين الولايات إلى وضع شركات المقاولات الدفاعية في منطقة رمادية قانونية بشكل يُبطئ الابتكار ويرفع التكاليف

تمتد التحديات الآن إلى ما هو أبعد من تعقيدات الاستخدام المزدوج لتشمل أمن المعلومات الاستراتيجي، فالقوانين المتفرقة لإدارة البيانات على مستوى الولايات تخلق نقاط ضعف كبيرة في أنظمة الذكاء الاصطناعي التي تحتوي على بيانات شخصية للأمريكيين، بما في ذلك المعلومات البيومترية، والسجلات الصحية، والمعاملات المالية، وسجلات المواقع، حيث تخضع هذه الأنظمة لمتطلبات مختلفة تماماً بشأن التخزين والاحتفاظ والسيادة على البيانات؛ إذ تشترط ولاية إلينوي الحصول على موافقة صريحة لمعالجة البيانات البيومترية، بينما تمنح كاليفورنيا حقوقاً واسعة لحذف البيانات، وتفرض تكساس قيوداً قليلة فقط.

ونتيجة لذلك، تفتقر الولايات المتحدة إلى إطار متماسك لإدارة البيانات، ما يثير تساؤلات حول أماكن تخزين البيانات الحساسة، وطرق الوصول إليها، وفترات الاحتفاظ بها، وإجراءات حذفها.

في المقابل، عندما يحاول الخصوم جمع المعلومات الشخصية للأمريكيين على نطاق واسع لأغراض الاستهداف الاستخباراتي، أو عمليات التأثير، أو الهندسة الاجتماعية، فإنهم يستغلون الحلقة الأضعف، وهي في هذه الحالة الولاية التي تمتلك أضعف القوانين، حيث يقوم الفاعلون المتطورون بتحليل الفروق في إدارة أمن البيانات بحثاً عن نقاط ضعف، وبما أن الوكالات الفيدرالية تفتقر إلى سلطة واضحة لحماية أمن البيانات عبر حدود الولايات، فإن جمع البيانات من الخارج يعقد وضع خطوط حمراء موحدة.

ومن المفارقات أيضاً أن النهج اللامركزي للولايات المتحدة فيما يخص سيادة البيانات، الذي صُمم ظاهرياً لحماية الخصوصية، قد يزيد، بدلاً من ذلك، من تعرض المواطنين للمراقبة من قبل قوى معادية تعمل دون أي قيود مماثلة.

قطاع الذكاء الاصطناعي المنقسم

بشكل أو بآخر، تُزيد الانقسامات العميقة داخل قطاع الذكاء الاصطناعي من تعقيد البيئة التنظيمية، وقد برزت هذه الانقسامات بشكل خاص بعد أن صرّح داريوأمودي، الرئيس التنفيذي لشركة أنثروبيك، لبرنامج 60دقيقة، بأنه يشعر بعدم الارتياح لأن القرارات المتعلقة بالذكاء الاصطناعي محصورة في قادة شركات التكنولوجيا، حيث طوّرت الشركة “كلود”، عبارة مساعد ذكاء اصطناعي تم تدريبه على كميات هائلة من البيانات لفهم مجموعة واسعة من المواضيع وتقديم ردود شبيهة بالبشر، إذ أيّدت “أنثروبيك” الإجراءات التي اتخذتها ولاية كاليفورنيا، والتي تلزم بتقديم تقارير شفافة، وحماية المبلغين عن المخالفات، والإبلاغ عن حوادث السلامة الحرجة، والكشف العلني عن أفضل الممارسات، وإجراء مراجعات سنوية لسياسات السلامة.

أثار موقف أمودي انتقادات لاذعة من ديفيد ساكس، الذي اتهم شركة أنثروبيك بدعم التنظيم على مستوى الولايات بغرض استمالة الجهات التنظيمية المحلية وصياغة القواعد بما يخدم مصالحها، وهو اتهام نفته الشركة، حيث ادعى ساكس، وهو مستثمر رأسمالي مغامر يمتلك استثمارات واسعة في قطاع التكنولوجيا، أن أنثروبيك تتحمل مسؤولية “الفوضى التنظيمية على مستوى الولايات”، التي تهدد منظومة الشركات الناشئة التي يُعدّ جزءاً منها.

وتصاعد الخلاف بعد معارضة “أنثروبيك” لمقترح فرض وقف فيدرالي لمدة عشر سنوات على تشريعات الولايات الخاصة بالذكاء الاصطناعي، وهو المقترح الذي أُدرج ضمن مشروع قانون الضرائب للرئيس ترامب، حيث اعتبر أمودي أن هذا الوقف إجراء فظاً وغير دقيق في ضوء التطور السريع لتقنيات الذكاء الاصطناعي، لكن في نهاية المطاف، جرى حذف بند الوقف قبل أن يوقّع ترامب مشروع القانون.

تضارب المصالح

ثمة حل منطقي لتجاوز معضلة التنظيم المعقد، وهو إصدار قانون اتحادي لتنظيم الذكاء الاصطناعي يضع معايير عادلة وموحدة للقطاع، متجاوزاً أو مستبقاً قوانين الولايات، وهذا النهج يؤيده ساكس، الذي دعا إلى تشريع اتحادي أقل صرامة من المقترحات التي قدمها منتقدو الذكاء الاصطناعي القلقون من احتمالية إساءة استخدامه، ومع ذلك، يتطلب هذا المسار موافقة الكونغرس، وقد رفضه المشرعون بأغلبية ساحقة في عام 2025.

الحل المنطقي لتجاوز معضلة التنظيم المعقد تتمثل بإصدار قانون اتحادي لتنظيم الذكاء الاصطناعي يضع معايير عادلة وموحدة للقطاع متجاوزاً قوانين الولايات

يقول المنتقدون: “إن ساكس، بصفته مسؤول الذكاء الاصطناعي في البيت الأبيض، يواجه تضارب مصالح كبيراً بسبب ممتلكاته الاستثمارية الواسعة”، حيث وصل إلى واشنطن بوصفه موظفاً حكومياً خاصاً، وهي حالة تُمنح للأفراد الذين يعملون للحكومة أقل من 130 يوماً في السنة، وبالتالي يُعفَون من عملية التأكيد البرلمانية والرقابة المالية المرتبطة بها، إذ كان لدى إيلون ماسك نفس الوضع عندما عمل في البيت الأبيض تحت إدارة ترامب.

كما حصل ساكس على إعفاء أخلاقي يسمح له بالاحتفاظ بموقعه كشريك مؤسس في شركة كرافت فينتشرز، لكن في منصبه في البيت الأبيض، يدافع ساكس عن التفوق الفيدرالي على قوانين الولايات الخاصة بالذكاء الاصطناعي، بينما تمتلك شركته للاستثمار المغامر استثمارات كبيرة في شركات ذكاء اصطناعي كانت ستستفيد من هذا النهج التنظيمي الأخف.

المسؤولون التنفيذيون في مجال التكنولوجيا خلال جلسة استماع أمام لجنة مجلس الشيوخ (أ ف ب)
تراجع النفوذ العالمي لأمريكا

يتفق مؤيدو الذكاء الاصطناعي ومنتقدوه على حد سواء على أن بعض أشكال التنظيم لهذه التكنولوجيا الحيوية أمر ضروري، حيث تتجاوز المخاطر مجرد تكاليف امتثال الشركات أو معدلات بقاء الشركات الناشئة لتصل إلى قضايا الحوكمة والنفوذ الاستراتيجي، إذ تمثل الفوضى التنظيمية للذكاء الاصطناعي في الولايات المتحدة إخفاقاً جوهرياً في الحوكمة عند مفترق تكنولوجي حاسم، وكلما تأخرت واشنطن في اتخاذ إجراءات، يزداد الانقسام التنظيمي، ليس فقط بين الولايات الخمسين، بل أيضاً على الصعيد الدولي، حيث يضع المنافسون القواعد التي ستحدد دور الذكاء الاصطناعي في المجتمع لأجيال قادمة.

يكتنف تقاعس الكونغرس تناقض واضح، فالدولة التي كانت رائدة في مجال الذكاء الاصطناعي ولا تزال تهيمن على تطويره باتت اليوم مهددة بالتهميش، ومُجبرة على الامتثال لمعايير تُفرض في بروكسل أو بكين، لأن نظامها السياسي فشل في الارتقاء إلى مستوى المسؤولية ووضع إطار وطني متماسك، فصحيح أن العمل الفيدرالي لن يُزيل كل التعقيدات التنظيمية ولن يحل كل التوترات بين الابتكار والسلامة، لكن في غياب قوانين موحدة، تواجه الولايات المتحدة مستقبلاً تخوض فيه شركاتها الرائدة في مجال الذكاء الاصطناعي مساراً تنظيمياً مليئاً بالعقبات، يُفضّل الشركات الكبرى ذات الموارد المالية الضخمة على منافسيها الأكفاء.

وفي مثل هذا العالم، يحلّ التسوّق بين الولايات محل الحوكمة القائمة على المبادئ، ويتآكل النفوذ الأمريكي على التكنولوجيا التي تشكّل مسار الحضارة بشكل مستمر، ومع ذلك، لا يزال باب القيادة الفيدرالية مفتوحاً، إلا أنه قد يُغلق بسرعة، وما قد يحل محل السياسة الوطنية المتماسكة قد يثبت أنه أكثر خطورة بكثير من اللوائح التي تخشاها صناعة التكنولوجيا اليوم.