Logo Logo
الرئيسية
البرامج
جدول البرامج
الأخبار
مع السيد
مرئيات
تكنولوجيا وطب
أخبار العالم الإسلامي
تغطيات وتقارير
أخبار فلسطين
حول العالم
المزيد
مسلسلات
البرامج الميدانية
البرامج التخصصية
برامج السيرة
البرامج الثقافية
برامج الأطفال
البرامج الوثائقية
برامج التغطيات والتكنولوجيا
المزيد

مُهندسة سابقة بـ"جوجل" تُحذر من "الروبوتات القاتلة"

16 أيلول 19 - 10:15
مشاهدة
187
مشاركة
قالت إحدى كبار مهندسي برامج عملاق التكنولوجيا "جوجل"، والتي استقالت العام الماضي من منصبها، إن هناك خطرا حقيقيا من ابتكار جيل جديد من الأسلحة المستقلة، أي التي تعمل بالذكاء الاصطناعي، والتي وصفتها لورا نولان، بـ"الروبوتات القاتلة".


وطالبت نولان التي استقالت من منصبها في "جوجل" العام الماضي، احتجاجا على إرسالها للعمل على مشروع لتطوير تكنولوجيا الطائرات المسيرة لدى الجيش الأميركي، بحظر جميع الأسلحة التي تعمل بالذكاء الاصطناعي.

ونقلت صحيفة "ذي غارديان" البريطانية، قول نولان، إن للطائرات التي تعمل من تلقاء نفسها، دون تحكم بشري، قدرة هائلة على ارتكاب "فظاعات لم تكن مبرمجة لفعلها من قبل".

وانضمت نولان إلى حملة "حظر الروبوتات القاتلة"، وأطلعت دبلوماسيين من الأمم المتحدة، في نيويورك، وجنيف، على مخاطر الأسلحة المستقلة، قائلة إن "احتمال وقوع كارثة يتناسب مع عدد هذه الآلات التي ستكون في منطقة معينة في الوقت ذاته". حيث أنها قد ترتكب فظائع وعمليات القتل غير قانونية حتى بموجب قوانين الحرب، خاصة إذا تم نشر مئات أو الآلاف من هذه الآلات".

وأضافت: "قد تكون هناك حوادث واسعة النطاق لأن هذه الأشياء ستبدأ في التصرف بطرق غير متوقعة. ولهذا السبب يجب أن تخضع أي أنظمة أسلحة متطورة إلى سيطرة إنسانية حقيقة، وإلا يجب حظرها لأنها غير متوقعة وخطيرة جدًا".

وذكرت الصحيفة، أن الدور السابق لنولان في "جوجل" تلخص، بانضمامها لفريق من المهندسين أوكلت لهم مهمة، تطوير تقنية ذكاء اصطناعي توفر على العاملين في الجيش الأميركي، فحص الفيديوهات التي تلتقطها الطائرات المسيرة، لتحديد "الأهداف العدائية المحتملة"، أي أن هذه الأجهزة سُتميز هذه الأهداف بسرعة فائقة دون الحاجة للعامل البشري.

واعتبرت نولان أنها كانت "جزءا من سلسلة القتل؛ وأن هذا سيؤدي في النهاية إلى المزيد من الأشخاص الذين يستهدفون ويٌقتلون على أيدي الجيش الأميركي في أماكن مثل أفغانستان".

وأوضحت نولان أن تطوير طائرات ذاتية التحكم يعني أنها ستكون أيضا خاضعة للقوى الخارجية كالطقس، أو عدم قدرة الآلة على فهم السلوك الإنساني المُعقد، مما قد يُخرجها عن مسارها لترتكب فظائع.
Plus
T
Print
كلمات مفتاحية

تكنولوجيا وطب

روبوتات

تكنولوجيا

طائرات

يهمنا تعليقك

أحدث الحلقات

أذن واعية

أذن واعية | الحلقة الثامنة والثلاثون

25 تشرين الأول 19

خطبتي صلاة الجمعة

خطبتي وصلاة الجمعة | 25-10-2019

25 تشرين الأول 19

فقه الشريعة 2019

الأحكام الشرعية لعمليات تغيير الجنس | فقه الشريعة

23 تشرين الأول 19

فقه الشريعة 2019

العنف الأسري، شبهات وأحكام | فقه الشريعة

25 أيلول 19

أذن واعية

أذن واعية | الحلقة السادسة والثلاثون

20 أيلول 19

أذن واعية

أذن واعية | الحلقة الخامسة والثلاثون

13 أيلول 19

خطبتي صلاة الجمعة

خطبتي وصلاة الجمعة | 13-9-2019

13 أيلول 19

أذن واعية

أذن واعية | الحلقة الرابعة والثلاثون

06 أيلول 19

أذن واعية

أذن واعية | الحلقة الثالثة والثلاثون

30 آب 19

خطبتي صلاة الجمعة

خطبتي وصلاة الجمعة | 30-8-2019

30 آب 19

أذن واعية

أذن واعية | الحلقة الثانية والثلاثون

23 آب 19

خطبتي صلاة الجمعة

خطبتي وصلاة الجمعة | 23-8-2019

23 آب 19

قالت إحدى كبار مهندسي برامج عملاق التكنولوجيا "جوجل"، والتي استقالت العام الماضي من منصبها، إن هناك خطرا حقيقيا من ابتكار جيل جديد من الأسلحة المستقلة، أي التي تعمل بالذكاء الاصطناعي، والتي وصفتها لورا نولان، بـ"الروبوتات القاتلة".

وطالبت نولان التي استقالت من منصبها في "جوجل" العام الماضي، احتجاجا على إرسالها للعمل على مشروع لتطوير تكنولوجيا الطائرات المسيرة لدى الجيش الأميركي، بحظر جميع الأسلحة التي تعمل بالذكاء الاصطناعي.

ونقلت صحيفة "ذي غارديان" البريطانية، قول نولان، إن للطائرات التي تعمل من تلقاء نفسها، دون تحكم بشري، قدرة هائلة على ارتكاب "فظاعات لم تكن مبرمجة لفعلها من قبل".

وانضمت نولان إلى حملة "حظر الروبوتات القاتلة"، وأطلعت دبلوماسيين من الأمم المتحدة، في نيويورك، وجنيف، على مخاطر الأسلحة المستقلة، قائلة إن "احتمال وقوع كارثة يتناسب مع عدد هذه الآلات التي ستكون في منطقة معينة في الوقت ذاته". حيث أنها قد ترتكب فظائع وعمليات القتل غير قانونية حتى بموجب قوانين الحرب، خاصة إذا تم نشر مئات أو الآلاف من هذه الآلات".

وأضافت: "قد تكون هناك حوادث واسعة النطاق لأن هذه الأشياء ستبدأ في التصرف بطرق غير متوقعة. ولهذا السبب يجب أن تخضع أي أنظمة أسلحة متطورة إلى سيطرة إنسانية حقيقة، وإلا يجب حظرها لأنها غير متوقعة وخطيرة جدًا".

وذكرت الصحيفة، أن الدور السابق لنولان في "جوجل" تلخص، بانضمامها لفريق من المهندسين أوكلت لهم مهمة، تطوير تقنية ذكاء اصطناعي توفر على العاملين في الجيش الأميركي، فحص الفيديوهات التي تلتقطها الطائرات المسيرة، لتحديد "الأهداف العدائية المحتملة"، أي أن هذه الأجهزة سُتميز هذه الأهداف بسرعة فائقة دون الحاجة للعامل البشري.

واعتبرت نولان أنها كانت "جزءا من سلسلة القتل؛ وأن هذا سيؤدي في النهاية إلى المزيد من الأشخاص الذين يستهدفون ويٌقتلون على أيدي الجيش الأميركي في أماكن مثل أفغانستان".

وأوضحت نولان أن تطوير طائرات ذاتية التحكم يعني أنها ستكون أيضا خاضعة للقوى الخارجية كالطقس، أو عدم قدرة الآلة على فهم السلوك الإنساني المُعقد، مما قد يُخرجها عن مسارها لترتكب فظائع.
تكنولوجيا وطب,روبوتات, تكنولوجيا, طائرات
Print
جميع الحقوق محفوظة, قناة الإيمان الفضائية