كان اختبار تورينج، الذي تم تطويره في الخمسينيات، يهدف إلى تحديد ما إذا كانت الآلة قادرة على محاكاة الذكاء البشري. ومنذ ذلك الحين، تطور الذكاء الاصطناعي (AI) من كونه أداة مساعدة إلى حد كبير إلى أداة يمكنها إنشاء محتوى مكتوب ومرئي.
ونتيجة لذلك، فإننا نشهد تحولا في كيفية إجراء البحوث العلمية ونشرها. ومع توسع استخدام أدوات الذكاء الاصطناعي التوليدي، وفهم إمكاناتها في البحث العلمي بشكل أفضل، لا بد من وضع اعتبارات أخلاقية.
يدرج معهد آلان تورينج التحيز والتمييز، وانعدام الشفافية وانتهاكات الخصوصية باعتبارها الآثار الضارة المحتملة للذكاء الاصطناعي. 1 أنشأت شركات مثل Google أطر عمل وأدرجت مبادئ الذكاء الاصطناعي الأخلاقية لدعم المعايير العلمية العالية وضمان المساءلة. 2 ومع ذلك، ستظل الأخلاقيات مجال تركيز الباحثين والناشرين على حد سواء من أجل منع إساءة استخدام هذه التكنولوجيا.
عصر جديد للنشر العلمي
يقدم برنامج الذكاء الاصطناعي خوارزميات التعلم الآلي التي يمكنها التعلم من البيانات وتدريبها على صياغة التنبؤات بناءً على الأنماط المرصودة. على سبيل المثال، يمكن للعلماء استخدام الذكاء الاصطناعي للتنبؤ بأفضل جزيئات الدواء المحتملة بناءً على مخرجات البيانات السابقة.
علاوة على ذلك، يمكن لأدوات مثل DALL-E إنشاء صور، بينما يمكن لأدوات أخرى، مثل Proofig AI، مراجعة المحتوى المرئي والصور الفرعية لتحديد التناقضات. يمكن لتقنيات التدقيق المبتكرة هذه، عند تطبيقها بفعالية، أن تعمل على تحسين النزاهة في النشر العلمي وتحديد مشكلات الازدواجية والتلاعب. ويمكنهم وضع علامة عليها قبل النشر، وبالتالي تمكين الناشرين من إصلاح أي أخطاء غير مقصودة أو رفض أي مخطوطات تم التلاعب بها.
معالجة المعلومات الخاطئة
بعد شهرين فقط من إطلاقه في عام 2022، وصل عدد مستخدمي Chatbot الذي يعمل بالذكاء الاصطناعي ChatGPT إلى 100 مليون مستخدم. يستخدم بعض الأشخاص الأداة لكتابة القصائد أو طلب النصائح. ولكن يمكن استخدامها أيضًا لإنتاج محتوى علمي. في يوليو 2023، ذكرت مجلة Nature أن اثنين من العلماء قد أنتجا ورقة بحثية حول تأثير استهلاك الفاكهة والخضروات والنشاط البدني على خطر الإصابة بالسكري في أقل من ساعة. ورد في الخبر أنه سليم وصحيح البناء. ومع ذلك، كان لدى ChatGPT “ميل لملء الفجوات عن طريق اختلاق المشكلات، وهي ظاهرة تسمى غالبًا الهلوسة”.
يعمل الذكاء الاصطناعي التوليدي أيضًا على تحويل الصور. يمكن للمستخدمين ببساطة وصف صورة لمنصات مثل DALL-E وStable Diffusion وMidjourney، وسيقوم البرنامج بإنشاء صورة في غضون ثوانٍ.
أصبحت أنظمة تحويل النص إلى صورة أكثر تعقيدًا. مما يجعل من الصعب اكتشاف الصور المولدة بواسطة الذكاء الاصطناعي، حتى بالنسبة للخبراء في الموضوع. قام فريق بقيادة عالم الكمبيوتر رونغشان يو من جامعة شيامن في الصين، بإنشاء سلسلة من صور اللطخة الغربية والسرطان المزيفة. وقد وجد أن اثنين من كل ثلاثة متخصصين في الطب الحيوي لم يتمكنوا من التمييز بين الصورة الحقيقية التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
مخاطر ضارة
استجابة للمخاطر الضارة القوية والمحتملة لبعض أدوات الصور والنصوص التي ينشئها الذكاء الاصطناعي. قام العديد من الناشرين بتكييف سياسات التحرير لتقييد استخدام الذكاء الاصطناعي لإنشاء محتوى للمخطوطات العلمية.
على سبيل المثال، قالت مجلة Nature إنها لن تسمح بقبول أداة نموذج اللغة الكبيرة (LLM) والاعتماد عليها كمؤلف، لأن أدوات الذكاء الاصطناعي لا يمكن أن تكون مسؤولة عن العمل.
كذلك يجب على الباحثين الذين يستخدمون أدوات LLM توثيق استخدامها في قسم الأساليب أو الشكر والتقدير. وفي أماكن أخرى، تعني المشكلات القانونية المحيطة باستخدام الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي أن السياسات التحريرية لسلامة الصور تحظر استخدامها في مجلات Nature .
ونظرًا للمخاطر المحتملة لأدوات الذكاء الاصطناعي على الأداء والشفافية، لا يمكن للأكاديميين استخدام هذه التكنولوجيا دون قيود واضحة. وهناك مسؤولية على الباحثين والمحررين ودور النشر للتحقق من الحقائق. يجب على لجنة أخلاقيات النشر (COPE) والناشرين أيضًا إصدار مبادئ توجيهية واضحة، والتي يجب تحديثها وفقًا لتطور قدرات الذكاء الاصطناعي، والتي تحدد متى يكون من المناسب والمرغوب فيه استخدام تكنولوجيا الذكاء الاصطناعي ومتى يكون من غير المناسب القيام بذلك.
أحد الأمثلة المثيرة للقلق على إساءة استخدام الذكاء الاصطناعي في ثقافة “النشر ” هو ظهور مصانع الورق ــ المنظمات التي تنتج محتوى ملفقا، بما في ذلك الصور المرئية مثل الرسوم البيانية.
5000 ورقة بحثية
بعد فحص 5000 ورقة بحثية، قدر عالم النفس العصبي بيرنهارد سابيل أن ما يصل إلى 34% من أوراق علم الأعصاب المنشورة في عام 2020 من المحتمل أن تكون مختلقة أو مسروقة؛ وفي الطب كانت النسبة 24%. ومن المثير للاهتمام أن هذا أعلى بكثير من خط الأساس البالغ 2٪ المذكور في تقرير COPE لعام 2022.
بالإضافة إلى التحقق من المحتوى المكتوب، يمكن للذكاء الاصطناعي أتمتة عملية فحص الصور وتسهيل اكتشاف حالات سوء الاستخدام أو النسخ غير المقصود قبل النشر على الباحثين والناشرين. تستخدم بعض برامج تدقيق سلامة الصور رؤية الكمبيوتر والذكاء الاصطناعي لمسح المخطوطة ضوئيًا ومقارنة الصور في دقائق، مما يشير إلى أي مشكلات محتملة. يتيح ذلك لمحرري الطب الشرعي إجراء مزيد من التحقيق، باستخدام الأداة للعثور على حالات القص واللصق أو الحذف أو التلاعبات الأخرى.
اكتشاف الصور المزيفة بالعين المجردة
يشعر الناشرون وفرق النزاهة بالقلق إزاء الانتشار السريع لأدوات الذكاء الاصطناعي الجديدة، وخاصة تلك القادرة على إنشاء الصور أو تعديلها، وجدوى اكتشاف المحتوى المزيف في المخطوطات.
ومع تطور منصات الذكاء الاصطناعي، سيصبح من الصعب اكتشاف الصور المزيفة بالعين المجردة. وحتى مقارنة هذه الصور بقاعدة بيانات تضم ملايين الصور المنشورة سابقًا قد تكون غير مجدية. حيث يمكن أن تبدو الصور التي أنشأها الذكاء الاصطناعي أصلية وفريدة من نوعها، على الرغم من عدم وجود بيانات مشروعة.
لم يعد بإمكان خبراء النزاهة الاعتماد على الفحوصات اليدوية وحدها. ويجب عليهم التفكير في استخدام تدابير مضادة لإساءة استخدام الذكاء الاصطناعي. ولذلك، فإن التطورات في تقنيات الرؤية الحاسوبية وأنظمة الذكاء الاصطناعي العدائية ستكون حاسمة للحفاظ على نزاهة البحث.
يقدم الذكاء الاصطناعي العديد من الفوائد للنشر العلمي ، لكن هذه الأدوات لا يمكنها التصرف بشكل أخلاقي من تلقاء نفسها. مع اعتماد الذكاء الاصطناعي على نطاق أوسع من قبل كل من الناشرين والباحثين. يجب أن تتعاون فرق النزاهة والمنظمات مثل COPE ومكتب نزاهة الأبحاث (ORI) لوضع مبادئ توجيهية ومعايير واضحة لاستخدامه في إنشاء المحتوى. وعلى الرغم من هذه الجهود. فإن المخطوطات ومصانع الورق التي تم التلاعب بها سوف تستمر.
لذلك.. يجب على الناشرين ومحرري النزاهة الاستمرار في اعتماد الحلول التكنولوجية الأكثر ملاءمة المتاحة في ذلك الوقت لمراجعة كل مخطوطة قبل النشر.
اقرأ أيضًا:



















