تقارير

جوجل ترفع الحظر عن استخدام الذكاء الاصطناعي في تطوير الأسلحة

أعلنت شركة جوجل عن تعديل سياساتها الخاصة بتطوير تقنيات الذكاء الاصطناعي، بما في ذلك إزالة الحظر الذي كانت قد فرضته سابقًا على استخدام هذه التكنولوجيا في الأغراض العسكرية والأمنية.

هذا التغيير يمثل تحولًا كبيرًا في نهج الشركة تجاه الذكاء الاصطناعي وتطويره، ويثير تساؤلات بشأن الأخلاقيات والخصوصية في المستقبل.

التعديل الكبير في سياسات جوجل بشأن الذكاء الاصطناعي

منذ عام 2018، التزمت جوجل بعدم تطوير تقنيات الذكاء الاصطناعي للاستخدامات العسكرية أو الأمنية. كانت الشركة قد أضافت حينها قسمًا ضمن سياساتها بعنوان “التطبيقات التي لن نسعى إليها”، والذي نص بوضوح على رفض استخدامها في تطوير الأسلحة أو تقنيات المراقبة التي تنتهك المعايير الدولية، ولكن في تعديل جديد لسياسات الشركة، تم إزالة هذا القسم، ما يفتح المجال لاستخدامات أوسع لتقنيات الذكاء الاصطناعي في المجال العسكري.

بدلاً من القسم الذي كان يحظر استخدام الذكاء الاصطناعي في الأسلحة، أدرجت جوجل جزءًا جديدًا بعنوان “التطوير والتوظيف المسؤول”. هذا التعديل يؤكد على ضرورة أن يكون هناك “إشراف بشري مناسب” على استخدام هذه التقنيات، بالإضافة إلى “إجراءات تقييم” لضمان توافق التكنولوجيا مع المبادئ المقبولة عالميًا.

كما يفتح هذا الباب أمام تطوير تقنيات الذكاء الاصطناعي المستخدمة في الأغراض العسكرية مع ضمان بعض الضوابط التي قد تحد من الاستخدامات الضارة.

 التساؤلات حول التغيير وأهدافه

هذا التغيير يأتي في وقت حساس، حيث شهدت جوجل العديد من الاحتجاجات الداخلية في السنوات الماضية من موظفيها ضد ارتباط الشركة بالمؤسسات العسكرية.

في عام 2018، انسحبت جوجل من عقد مع وزارة الدفاع الأمريكية كان يهدف إلى استخدام الذكاء الاصطناعي في تحليل لقطات الطائرات دون طيار، بعد احتجاجات واسعة من موظفي الشركة ، لكن منذ عام 2021، بدأت جوجل في إعادة النظر في علاقتها مع المؤسسات العسكرية، حيث قدمت عروضًا للحصول على عقود جديدة، بما في ذلك مع وزارة الدفاع الأمريكية.

 عودة التعاون مع المؤسسات العسكرية والحكومات

في الآونة الأخيرة، ظهرت تقارير تفيد بأن جوجل قد تعاونت مع وزارة الدفاع الأمريكية والإسرائيلية في مشاريع تتعلق باستخدام تقنيات الذكاء الاصطناعي. خلال الحرب الأخيرة على غزة، أفادت تقارير بأن موظفي جوجل ساعدوا في توسيع استخدام هذه التقنيات ضمن العمليات العسكرية.

هذا التعاون يعكس تحولًا في سياسة الشركة، التي بدأت في إعادة الانخراط بشكل أكبر مع الجهات العسكرية والحكومات، وهو ما يثير قلقًا بشأن استخدام هذه التقنيات في الحروب والصراعات.

 المخاوف الأخلاقية والخصوصية في ظل التوسع في التطبيقات العسكرية

مع هذا التغيير الكبير، بدأ العديد من المنتقدين في التعبير عن مخاوفهم بشأن الآثار الأخلاقية والخصوصية لتوسيع استخدام الذكاء الاصطناعي في الأغراض العسكرية.

يتساءل البعض عن مدى تأثير هذه التقنيات على الحريات الفردية وحقوق الإنسان، خاصة في حالة استخدامها في أنظمة المراقبة العسكرية أو العمليات القتالية. وبينما ترى جوجل أن التوسع في هذا المجال ضروري لتعزيز الأمن القومي ودعم النمو العالمي، فإن هذه المبررات تظل غير قابلة للقياس بشكل ملموس، مما يثير قلقًا واسعًا بين المعنيين.

التغييرات الأخيرة في سياسة جوجل تفتح بابًا واسعًا أمام استخدام الذكاء الاصطناعي في تطوير الأسلحة والنظم العسكرية.

هذا يثير العديد من الأسئلة حول كيفية تأثير هذه التكنولوجيا على المستقبل، خاصة فيما يتعلق بالسيطرة على تقنياتها واستخدامها بشكل مسؤول. في الوقت الذي تتطلع فيه الحكومات والشركات إلى دمج الذكاء الاصطناعي في دفاعاتها وأمنها، يبقى أن نرى كيف سيتم تنظيم هذا المجال لضمان عدم إساءة استخدام هذه التقنيات في المستقبل.

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى