إرشادات جديدة لاستخدام الذكاء الاصطناعي في التدريس والبحث العلمي

إرشادات جديدة لاستخدام الذكاء الاصطناعي في التدريس والبحث العلمي
مشاركة المقال:
حجم الخط:

أعلن المجلس الأعلى للجامعات إطلاق دليل النزاهة الأكاديمية وأخلاقيات البحث العلمي في مصر، كأول إطار وطني شامل ينظم الممارسات الأكاديمية والبحثية داخل الجامعات والمؤسسات البحثية، بهدف ترسيخ قيم الأمانة العلمية، وتعزيز جودة التعليم العالي، وضمان حوكمة البحث العلمي وفق معايير واضحة ومستدامة.
نقلة نوعية في منظومة البحث العلمي
ويمثل الدليل تحولًا جوهريًا في منظومة التعليم العالي، حيث ينتقل بالعمل الأكاديمي من الاعتماد على الاجتهادات الفردية والمعايير غير الموحدة إلى منظومة مؤسسية متكاملة، تستند إلى قواعد وإجراءات واضحة، وتتوافق مع أفضل الممارسات والمعايير الدولية المعتمدة.
تنظيم استخدام الذكاء الاصطناعي
وفي ضوء التطور المتسارع لتقنيات الذكاء الاصطناعي، تضمن الدليل مجموعة من الضوابط الأخلاقية التي تحكم استخدام هذه التطبيقات في التدريس والبحث العلمي والإنتاج الأكاديمي، بما يضمن الاستخدام المسؤول والواعي لها دون الإخلال بقيم النزاهة والشفافية.
الشفافية والإفصاح شرط أساسي
ألزم الدليل أعضاء هيئة التدريس بالإفصاح الواضح عن استخدام أي تطبيق من تطبيقات الذكاء الاصطناعي في إعداد المحاضرات أو الأبحاث أو المواد العلمية، مع توضيح نوع الأداة المستخدمة ودورها وحدود تدخلها، وعدم تقديم مخرجات الذكاء الاصطناعي باعتبارها جهدًا شخصيًا دون الإشارة إلى مصدرها.
المسؤولية العلمية لا تسقط
أكد الدليل أن عضو هيئة التدريس يتحمل المسؤولية الكاملة عن جميع المخرجات الأكاديمية الناتجة عن استخدام أدوات الذكاء الاصطناعي، مع ضرورة عدم الاعتماد الكلي عليها في اتخاذ القرارات الأكاديمية أو البحثية، والحفاظ على الدور التربوي والعلمي للأكاديمي دون استبداله بالتقنيات الذكية.
مكافحة الانتحال وضمان الأصالة
وشدد الدليل على ضرورة مراجعة المحتوى المولد آليًا للتأكد من خلوه من الانتحال أو الاقتباس غير الموثق، مع استخدام أدوات كشف التشابه، وضمان أصالة المحتوى قبل نشره أو استخدامه في العملية التعليمية.
توثيق صارم للمعلومات
واعتبر الدليل الذكاء الاصطناعي أداة مساعدة وليست مرجعًا علميًا، مؤكدًا ضرورة توثيق أي معلومات أو أفكار تم الحصول عليها عبر هذه الأدوات وفق قواعد التوثيق المعتمدة، والالتزام بضوابط النشر العلمي عند الاستشهاد بمخرجاتها.
التدقيق في الدقة والمصداقية
ألزم الدليل أعضاء هيئة التدريس بمراجعة البيانات والتحليلات التي تنتجها تطبيقات الذكاء الاصطناعي، والتحقق من صحتها وخلوها من التحيزات، ومقارنتها بمصادر علمية موثوقة قبل اعتمادها في التدريس أو البحث.
حماية الخصوصية وأمن البيانات
وأكد الدليل ضرورة عدم إدخال بيانات شخصية أو معلومات سرية أو أبحاث غير منشورة في أدوات غير موثوقة، مع الالتزام بسياسات أمن المعلومات داخل الجامعات، وتشجيع استخدام المنصات المؤسسية المعتمدة.
رفض فبركة المحتوى العلمي
وشدد الإطار الأخلاقي على الامتناع التام عن فبركة البيانات أو النتائج أو الصور باستخدام الذكاء الاصطناعي، وعدم استخدام هذه الأدوات لإنتاج أبحاث أو تكليفات جاهزة وتقديمها باعتبارها أعمالًا أصيلة.
التزام مؤسسي واضح
وأكد الدليل ضرورة الالتزام بسياسات الجامعات والمجلات العلمية بشأن الإفصاح عن استخدام الذكاء الاصطناعي، وعدم اعتباره مؤلفًا أو شريكًا في أي عمل علمي، مع احترام حقوق الملكية الفكرية للمحتوى الناتج آليًا.
تطوير مهارات أعضاء هيئة التدريس
واختتم الدليل بالتأكيد على أهمية رفع وعي أعضاء هيئة التدريس والهيئة المعاونة بآليات عمل تطبيقات الذكاء الاصطناعي وحدودها ومخاطرها المحتملة، وتنمية مهارات النقد والتحليل لضمان الاستخدام الآمن والمسؤول للتقنيات الحديثة بما يخدم جودة التعليم والبحث العلمي.

مقالات مقترحة

عرض الكل