دور الأخلاق في توجيه تطوير الذكاء الاصطناعي واستخدامه

ينفرد الموقع الرسمي لأبرشية دهوك الكلدانية بنشر الترجمة الكاملة للوثيقة الجديدة بخصوص الذكاء الاصطناعي التي أصدرتها دائرة عقيدة الإيمان ودائرة الثقافة في الفاتيكان، على شكل أجزاء، ليتسنى للقارئ قراءتها كاملة.

الجزء الخامس

 

ترجمة الأخت د. حنان ايشوع

رابعًا: دور الأخلاق في توجيه تطوير الذكاء الاصطناعي واستخدامه

36. انطلاقًا من هذه الاعتبارات، قد يتساءل المرء كيف يُمكن فهم الذكاء الاصطناعي في إطار خطة الله. فالنشاط التقني العلمي ليس محايدًا، كونه مشروعًا بشريًا يستدعي الأبعاد الإنسانية والثقافية للإبداع البشري.

37. يُعدّ البحث العلمي وتطوير المهارات التقنية، باعتبارهما ثمرة الإمكانات الكامنة في الذكاء البشري، جزءًا من “تعاون الرجل والمرأة مع الله في الوصول بالخلق المرئي إلى الكمال”. وفي الوقت نفسه، فإن جميع الإنجازات العلمية والتكنولوجية هي في نهاية المطاف هبات من الله. لذلك، يجب على البشر أن يستخدموا مواهبهم دائمًا لتحقيق الغاية الأسمى التي وهبهم الله إياها.

38. يمكننا أن نعترف بامتنان بأن التكنولوجيا “عالجت شرورًا لا تُحصى أثّرت على البشر وقيدتهم”، ولهذا، لا يسعنا إلا أن نبتهج. ومع ذلك، ليست كل الابتكارات التكنولوجية بحد ذاتها تقدمًا حقيقيًا. لذلك، تُعارض الكنيسة بشدة تلك التطبيقات التي تُهدد قدسية الحياة أو كرامة الإنسان. وكأي مسعى بشري آخر، يجب أن يُوجَّه التطور التكنولوجي لخدمة الإنسان، وأن يُسهم في الجهود المبذولة لتحقيق “عدالة أكبر، وأخوة أكبر، ونظام علاقات اجتماعية أكثر إنسانية”، وهي “أكثر قيمة من التقدم في المجال التقني”. لا تقتصر المخاوف بشأن الآثار الأخلاقية للتطور التكنولوجي على الكنيسة فحسب، بل تشمل أيضًا العلماء وخبراء التكنولوجيا والجمعيات المهنية، الذين يدعون بشكل متزايد إلى التأمل الأخلاقي لتوجيه هذا التقدم بمسؤولية.

39. لمواجهة هذه التحديات، لا بد من لفت الانتباه إلى أهمية المسؤولية الأخلاقية المرتكزة على كرامة الإنسان ورسالته. وينطبق هذا المبدأ أيضًا على المسائل المتعلقة بالذكاء الاصطناعي. في هذا السياق، يكتسب البعد الأخلاقي أهمية قصوى، لأن البشر هم من يصممون الأنظمة ويحددون أغراض استخدامها. بين الآلة والإنسان، الإنسان وحده هو الفاعل الأخلاقي الحقيقي، أي أنه شخص مسؤول أخلاقيًا يمارس حريته في قراراته ويتقبل العواقب. البشر وحدهم هم من يرتبطون بالحق والخير، مسترشدين بضميرهم الأخلاقي الذي يدعوهم إلى “حب الخير وفعله واجتناب الشر”، مما يشهد على “سلطة الحق في إشارة إلى الخير الأسمى، الذي يشعر الإنسان بجاذبيته”؛ البشر وحدهم هم من يمتلكون وعيًا ذاتيًا كافيًا ليتمكنوا من الإنصات لصوت الضمير واتباعه، والتمييز بحكمة والسعي إلى الخير الممكن في كل موقف. في الواقع، هذا أيضًا جزء من ممارسة الذكاء البشري.

40. وكما هو الحال مع أي منتج من منتجات الإبداع البشري، يمكن توجيه الذكاء الاصطناعي نحو غايات إيجابية أو سلبية. فعندما يُستخدم بطرق تحترم كرامة الإنسان وتعزز رفاه الأفراد والمجتمعات، يُمكن أن يُسهم إسهامًا إيجابيًا في الرسالة الإنسانية. ومع ذلك، وكما هو الحال في جميع المجالات التي يُدعى فيها البشر لاتخاذ القرارات، يمتد هنا أيضًا شبح الشر. فعندما تُتيح الحرية البشرية إمكانية اختيار ما هو شرير، يعتمد التقييم الأخلاقي لهذه التكنولوجيا على كيفية توجيهها واستخدامها.

41. ومع ذلك، ليست الغايات وحدها هي المهمة أخلاقيًا، بل أيضًا الوسائل المستخدمة لتحقيقها؛ علاوة على ذلك، فإن الرؤية العامة وفهم الشخص المُجسّد في هذه الأنظمة مهمان أيضًا. تعكس المنتجات التكنولوجية النظرة العالمية لمطوريها ومالكيها ومستخدميها ومنظميها، وبقوتها “تُشكّل العالم وتُخاطب الضمائر على مستوى القيم”. على المستوى الاجتماعي، قد تُعزز بعض التطورات التكنولوجية أيضًا علاقاتٍ وديناميكياتِ قوةٍ لا تتوافق مع الرؤية الصحيحة للإنسان والمجتمع.

42. لذلك، يجب تقييم كلٍّ من الغايات والوسائل المستخدمة في أي تطبيق ذكاء اصطناعي، وكذلك الرؤية الشاملة التي يُجسّدها، لضمان احترامها لكرامة الإنسان وتعزيزها للصالح العام. في الواقع، وكما صرّح البابا فرنسيس، يجب أن تكون “الكرامة الجوهرية لكل رجل وامرأة” “المعيار الأساسي في تقييم التقنيات الناشئة، التي تكشف عن إيجابيتها الأخلاقية بقدر ما تُسهم في إظهار هذه الكرامة وزيادة تعبيرها على جميع مستويات الحياة البشرية”، بما في ذلك المجالين الاجتماعي والاقتصادي. وبهذا المعنى، يلعب الذكاء البشري دورًا حاسمًا ليس فقط في تصميم وإنتاج التكنولوجيا، بل أيضًا في توجيه استخدامها بما يتماشى مع الصالح الحقيقي للإنسان. وتقع مسؤولية ممارسة هذه الإدارة بحكمة على عاتق جميع مستويات المجتمع، مسترشدةً بمبدأ التبعية ومبادئ أخرى من العقيدة الاجتماعية للكنيسة.

 

دعم حرية الإنسان وصنع القرار
43. يُعدّ الالتزام بأن يدعم الذكاء الاصطناعي ويُعزز القيمة العليا لكرامة كل إنسان واكتمال دعوته معيارًا للتمييز يُعنى به المطورون والمالكون والمشغلون والجهات التنظيمية، بالإضافة إلى المستخدمين النهائيين، ويظل ساريًا على كل استخدام للتكنولوجيا على جميع المستويات.

44. إذًا، يُمكن البدء بتحليل آثار هذا المبدأ بالنظر في أهمية المسؤولية الأخلاقية. بما أن السببية الأخلاقية الكاملة تقتصر على الوكلاء الشخصيين، وليس على الوكلاء الاصطناعيين، فمن الأهمية بمكان تحديد المسؤول عن عمليات الذكاء الاصطناعي، لا سيما تلك التي تتضمن إمكانية التعلم والتصحيح وإعادة البرمجة. في حين أن الأساليب التجريبية (التصاعدية) والشبكات العصبية العميقة تُمكّن الذكاء الاصطناعي من حل المشكلات المعقدة، إلا أنها تُصعّب أيضًا فهم العمليات التي أدت إلى هذه الحلول. وهذا يُعقّد تحديد المسؤولية، لأنه إذا أسفر تطبيق الذكاء الاصطناعي عن نتائج غير مرغوب فيها، فسيُصبح من الصعب تحديد من تُنسب إليه هذه النتائج. لمعالجة هذه المشكلة، يجب الانتباه إلى طبيعة عمليات المساءلة في السياقات المعقدة والآلية للغاية، حيث غالبًا ما تكون النتائج ملحوظة فقط على المدى المتوسط والطويل. لهذا السبب، من المهم أن يتحمل متخذو القرارات القائمة على الذكاء الاصطناعي مسؤوليتهم، وأن يكون من الممكن توضيح استخدام الذكاء الاصطناعي في كل مرحلة من مراحل عملية صنع القرار.

45. بالإضافة إلى تحديد المسؤوليات، يجب تحديد الأهداف الموكلة لأنظمة الذكاء الاصطناعي. على الرغم من أن هذه الأنظمة قد تستخدم آليات التعلم الذاتي غير الخاضع للإشراف، وقد تتبع أحيانًا مسارات لا يمكن إعادة بنائها، إلا أنها في النهاية تسعى إلى تحقيق الأهداف التي حددها لها البشر، وتخضع لعمليات وضعها مصمموها وبرمجوها. يُمثل هذا تحديًا، لأنه مع تزايد قدرة نماذج الذكاء الاصطناعي على التعلم الذاتي، قد تنخفض القدرة على التحكم فيها لضمان خدمة هذه التطبيقات للأغراض البشرية. وهذا يثير سؤالًا حاسمًا حول كيفية ضمان توجيه أنظمة الذكاء الاصطناعي نحو مصلحة الناس وليس ضدهم.

46. في حين أن الاستخدام الأخلاقي لأنظمة الذكاء الاصطناعي يشمل في المقام الأول أولئك الذين يطورونها وينتجونها ويديرونها ويشرفون عليها، فإن هذه المسؤولية مشتركة أيضًا بين مستخدميها. في الواقع، وكما لاحظ البابا فرانسيس، “ما تصنعه الآلة هو خيار تقني من بين عدة احتمالات، ويستند إما إلى معايير محددة جيدًا أو إلى استنتاجات إحصائية. أما البشر، من ناحية أخرى، فهم لا يختارون فحسب، بل هم في قرارة أنفسهم قادرون على ذلك”. أولئك الذين يستخدمون الذكاء الاصطناعي لإنجاز العمل ومتابعة نتائجه يخلقون سياقًا يكونون فيه مسؤولين في نهاية المطاف عن السلطة التي فوضوها. لذلك، وبقدر ما يستطيع الذكاء الاصطناعي مساعدة البشر في اتخاذ القرارات، يجب أن تكون الخوارزميات التي توجهه موثوقة وآمنة ومتينة بما يكفي للتعامل مع التناقضات، وشفافة في عملها للتخفيف من التحيز والآثار الجانبية غير المرغوب فيها. يجب أن تضمن الأطر التنظيمية قدرة جميع الكيانات القانونية على تفسير استخدام الذكاء الاصطناعي وجميع عواقبه، مع اتخاذ تدابير كافية لضمان الشفافية والسرية والمساءلة. علاوة على ذلك، يجب على المستخدمين الحرص على عدم الاعتماد المفرط على الذكاء الاصطناعي في قراراتهم، مما يزيد من درجة التبعية العالية بالفعل للتكنولوجيا التي تميز المجتمع المعاصر.

47. تساعد التعاليم الأخلاقية والاجتماعية للكنيسة في إعداد استخدام للذكاء الاصطناعي يحافظ على القدرة البشرية على الفعل. على سبيل المثال، ينبغي أن تتناول اعتبارات العدالة قضايا مثل تعزيز ديناميكيات اجتماعية عادلة، والدفاع عن الأمن الدولي، وتعزيز السلام. ومن خلال ممارسة الحكمة، يمكن للأفراد والمجتمعات تمييز كيفية استخدام الذكاء الاصطناعي لصالح البشرية، مع تجنب التطبيقات التي قد تنتقص من كرامة الإنسان أو تضر بالكوكب. في هذا السياق، ينبغي فهم مفهوم “المسؤولية” ليس فقط بمعناه الضيق، بل على أنه “رعاية الآخرين، وليس فقط […] تقديم تقرير عما فعله المرء”.

48. لذلك، يمكن للذكاء الاصطناعي، كأي تقنية أخرى، أن يكون جزءًا من استجابة واعية ومسؤولة لدعوة البشرية إلى فعل الخير. ومع ذلك، وكما نوقش سابقًا، يجب أن يوجهه الذكاء البشري ليتوافق مع تلك الدعوة، مع ضمان احترام كرامة الإنسان. واعترافًا بهذه “الكرامة السامية”، يؤكد المجمع الفاتيكاني الثاني أن “النظام الاجتماعي […] وتقدمه يجب أن يسمحا دائمًا لخير الأشخاص بأن يسود”. في ضوء ذلك، يجب أن يكون استخدام الذكاء الاصطناعي، كما قال البابا فرنسيس، “مصحوبة بأخلاقيات مبنية على رؤية الخير المشترك، وأخلاقيات الحرية والمسؤولية والأخوة، القادرة على تعزيز التنمية الكاملة للإنسان في علاقته بالآخرين والخليقة”.

عن Yousif

شاهد أيضاً

الذكاء الاصطناعي، الاقتصاد، والعمل

ينفرد الموقع الرسمي لأبرشية دهوك الكلدانية بنشر الترجمة الكاملة للوثيقة الجديدة بخصوص الذكاء الاصطناعي التي …