في العقود الأولى من العصر الرقمي، كانت شركات التكنولوجيا غالبًا ما تبدو وكأنها تتحرك في منافسة هادئة - كل منها تتسابق على مسارها الخاص، تبني أدوات تعد بتشكيل المستقبل. ومع ذلك، تظهر بين الحين والآخر لحظة عندما تتوقف المنافسات، وتنظر إلى الجوانب، وتجد نفسها واقفة على نفس الجانب من سؤال أكبر.
تبدو تلك اللحظة أنها تتكشف الآن في وادي السيليكون.
بدأت العديد من أكبر شركات التكنولوجيا في العالم بدعم شركة الذكاء الاصطناعي الناشئة أنثروبيك في تحديها للإجراءات التي اتخذتها إدارة ترامب. تدور النزاع حول قرار وزارة الدفاع الأمريكية بتصنيف الشركة على أنها "خطر في سلسلة التوريد"، وهو تصنيف يمنع فعليًا استخدام تقنيتها من قبل الجيش أو العديد من المتعهدين الحكوميين.
جاء هذا التصنيف بعد انهيار المفاوضات بين أنثروبيك والبنتاغون حول كيفية استخدام نماذج الذكاء الاصطناعي الخاصة بالشركة في العمليات الحكومية. وفقًا للتقارير، أصرت أنثروبيك على الحفاظ على تدابير الحماية التي تمنع استخدام أنظمتها في المراقبة الجماعية المحلية أو الأسلحة الفتاكة المستقلة بالكامل. عندما تعثرت المحادثات، تحرك المسؤولون الفيدراليون لتقييد دور الشركة في سلاسل التوريد الحكومية.
ردًا على ذلك، قدمت أنثروبيك تحديًا قانونيًا يجادل بأن التصنيف كان غير مسبوق وغير قانوني. تقول الشركة إن هذا الإجراء قد يضر بأعمالها ويعطل نظامًا بيئيًا متناميًا من مقدمي التكنولوجيا الذين يعتمدون على أدوات الذكاء الاصطناعي الخاصة بها.
ومع ذلك، ما جذب الانتباه بشكل خاص هو رد فعل الشركات التقنية الأخرى. أبدت شركات مثل مايكروسوفت، جوجل، أمازون، وآبل دعمها لموقف أنثروبيك من خلال تقديم ملفات قانونية وبيانات عامة تحذر من أن إجراء الحكومة قد يكون له عواقب بعيدة المدى على صناعة التكنولوجيا.
في أحد الملفات القانونية، وصفت مايكروسوفت التصنيف بأنه خطوة قد تخلق "تداعيات سلبية واسعة" على قطاع التكنولوجيا الأمريكي. جادلت الشركة بأن تقييد الوصول إلى الشركات التقنية المتقدمة المحلية قد يعيق الابتكار ويعقد اعتماد الحكومة على أدوات القطاع الخاص.
كما ظهر الدعم من الباحثين والمهندسين العاملين في شركات الذكاء الاصطناعي الأخرى. قدم العشرات من الموظفين من منظمات مثل جوجل ديب مايند وأوبن إيه آي مذكرات قانونية بصفاتهم الشخصية، محذرين من أن القضية قد تشكل كيفية تنظيم الذكاء الاصطناعي في المستقبل.
وراء الحجج القانونية يكمن سؤال أعمق بدأ يعرف بشكل متزايد النقاشات حول الذكاء الاصطناعي: من يقرر كيفية استخدام الخوارزميات القوية.
بالنسبة للحكومات، أصبح الذكاء الاصطناعي بسرعة أداة استراتيجية في مجالات تتراوح من تحليل المعلومات الاستخباراتية إلى الأمن السيبراني والدفاع. بالنسبة لشركات التكنولوجيا، تحمل نفس الأدوات اعتبارات أخلاقية حول المراقبة والحرب وحدود الأتمتة.
حاولت أنثروبيك أن تضع نفسها ضمن هذا النقاش من خلال رسم ما تسميه "خطوط حمراء" حول بعض استخدامات تقنيتها. يجادل المؤيدون بأن هذه الحدود تعكس تطويرًا مسؤولًا في مجال يتطور بسرعة. ومع ذلك، أثار النقاد في الدوائر الحكومية مخاوف من أن مثل هذه القيود قد تعقد العمليات الأمنية الوطنية.
قد تحدد المعركة القانونية التي تتكشف الآن في المحاكم الفيدرالية ما إذا كان تصنيف الحكومة لأنثروبيك سيبقى قائمًا أو سيتم حظره مؤقتًا بينما تستمر النزاع.
في الوقت الحالي، جمعت القضية تحالفًا غير عادي من المنافسين الذين يتنافسون عادةً على نفس العملاء والمواهب. يبدو أن قلقهم المشترك يتعلق أقل بمصير شركة واحدة وأكثر بكثير حول مدى امتداد سلطة الحكومة إلى الهيكل المتطور للذكاء الاصطناعي.
بينما تستمر الجلسات، ستقرر المحاكم ما إذا كانت القيود ستبقى سارية بينما تتقدم القضية. في هذه الأثناء، أصبح تحدي أنثروبيك - والدعم الذي تلقته من جميع أنحاء قطاع التكنولوجيا - واحدًا من أولى الاختبارات القانونية الكبرى في العلاقة بين سلطة الحكومة والعالم المتوسع بسرعة للذكاء الاصطناعي.
تنبيه صورة الذكاء الاصطناعي تم إنتاج الرسوم التوضيحية باستخدام الذكاء الاصطناعي وتعمل كتصورات مفاهيمية.
المصادر رويترز فاينانشال تايمز وايرد فورتشن ذا غارديان

