تكنولوجيا

جوجل تتعهد بعدم تطوير أسلحة ذكاء اصطناعي

غزة / بالت فلسطين /
أصدرت شركة جوجل مجموعة من المبادئ لتوجيه عملها في مجال الذكاء الاصطناعي، حيث كشفت النقاب عن سياسة أخلاقيات الذكاء الاصطناعي الجديدة بعد تخليها عن المشاركة في مشروع مافن Project Maven التابع لوزارة الدفاع الأمريكية البنتاغون، والذي يستخدم الذكاء الاصطناعي لتحليل اللقطات الواردة من الطائرات بدون طيار، لكنها أكدت في الوقت نفسه أنها ستواصل عملها مع الحكومات والجيش في العديد من المجالات الأخرى، وذلك وفقًا لتصريحات سوندر بيتشاي Sundar Pichai، الرئيس التنفيذي للشركة.

وتعهدت عملاقة البحث بعدم تطوير تقنيات ذكاء اصطناعي يمكن استخدامها في الحرب أو المراقبة، حيث تركز سياسة جوجل الجديدة حول تطوير الذكاء الاصطناعي لبناء التقنيات بشكل مسؤول والحد من أي سوء استخدام محتمل، وذلك حسبما ذكرت الشركة في مدونة نشرتها، وذكرت أنه لن يتم استخدام أي من تقنيات الذكاء الاصطناعي المطورة من قبلها كسلاح أو مراقبة، بالإضافة إلى رفض الشركة تطوير أي من مشاريع الذكاء الاصطناعي التي قد تتسبب أو يحتمل أن تسبب ضررًا عامًا، إلا عندما تكون الفوائد تفوق المخاطر بشكل جوهري، ولكن مع وجود ضمانات.

وتأتي هذه السياسة بعد مرور أيام فقط من إعلان الشركة أنها لن تجدد عقدها مع وزارة الدفاع الأمريكية لتحليل اللقطات الواردة من الطائرات بدون طيار، بعد تعرضها لضغوط كبيرة من قبل موظفيها الذين قاموا بإرسال رسالة إلى الرئيس التنفيذي للشركة تطلب إلغاء مشاركتها المستمرة في مشروع مافن Project Maven، وذلك على الرغم من أن الشركة زعمت أن مشاركتها كانت لأغراض غير هجومية، لكن بعض الموظفين كانوا يخشون من إمكانية استخدام مثل تلك التقنيات يومًا ما في الحرب الفعلية.

وتعد جوجل واحدة من أكثر الشركات تأثيرًا في مجال الذكاء الاصطناعي، وذلك تبعًا لوصفها نفسها بأنها شركة ذكاء اصطناعي بالدرجة الأولى، كما أنها المالكة لمجموعة من إطارات العمل مفتوحة المصدر مثل Kaggle و TensorFlow، وكونها تمتلك عدد من المواهب الفذة والباحثين البارزين في هذا المجال، ووفقًا لتصريحات الشركة فإنها ستواصل عملها مع الحكومات والجيش في العديد من المجالات الأخرى، والتي تشمل الأمن السيبراني والتدريب والتوظيف العسكري والرعاية الصحية للمحاربين القدامى والبحث والإنقاذ.

وتشير المبادئ إلى أن جوجل لن تعمل أيضًا على تطوير مشاريع للمراقبة تستخدم الذكاء الاصطناعي وتنتهك المعايير المقبولة دوليًا، أو المشاريع التي تتعارض مع المبادئ المقبولة على نطاق واسع للقانون الدولي وحقوق الإنسان، مع تركيزها على أبحاث الذكاء الاصطناعي المفيدة اجتماعيًا، وهذا يعني تجنب التحيز غير العادل، حيث أنها تبقى مسؤولة أمام البشر وتخضع لسيطرة الإنسان، مع دعم معايير عالية من التميز العلمي، ودمج ضمانات الخصوصية.

الوسوم
اظهر المزيد

yahya daabes

Yahya Daabes مدون وناشط شبابي فلسطيني من غزة هاوي التصوير والتصميم والمونتاج خبير إنترنت مواقع إلكترونية مهتم بالسياسة !

مقالات ذات صلة

اترك رد

إغلاق
%d مدونون معجبون بهذه: