جستجو در مقالات منتشر شده


7 نتیجه برای هوش مصنوعی

داود نظم الاسلامی، فاطمه موحدی راد،
دوره 5، شماره 9 - ( 12-1391 )
چکیده

به‌طور کلی، ماهیت وجودی هوش به مفهوم جمع‌آوری اطلاعات، استقرا و تحلیل تجربیات به منظور رسیدن به دانش یا ارائه‌ی تصمیم است. سیستم‌هایی که تصمیم‌‌های مستقل می‌گیرند ممکن است حتی در موقعیت‌‌های به ظاهر روزمره با دوراهی‌‌های اخلاقی روبه‌رو شوند. یک راه برای تضمین رفتار اخلاقی سیستم‌هایی که با انسان‌‌ها مراوده می‌کنند آن است که این سیستم‌‌ها با اصول همگانی اخلاقی برنامه‌ریزی شوند و به آن‌ها اجازه داده شود تا بر اساس آن اصول مورد به مورد تصمیم بگیرند. روش‌‌های هوش مصنوعی خود می‌تواند از طریق منطق و با انتزاعی کردن اصول از مورد‌های خاص اخلاقی، رفتارهایی که مورد پذیرش آن اصول است را تولید کند. با استفاده از این روش می‌توان سیستمی را برنامه‌ریزی کرد که بر اساس آن اصول اخلاقی حرکت کند. بررسی و تحلیل این تغییرات و پیامد‌‌های آن موضوع اصلی حوزه‌ی اخلاق کامپیوتر و اطلاعات است. کاربرد نظریه‌‌های اخلاقی و فلسفی مانند سودانگاری، اخلاق کانتی و اخلاق ارزش‌گرا در مسائلی که با کامپیوتر و شبکه درگیر هستند، بخش عمده‌ای از مباحث این شاخه از اخلاق عملی را تشکیل می‌دهند. حدود 30 سال از آغاز کار بر روی هوش مصنوعی در پزشکی می‌گذرد. سیستم‌‌های هوش مصنوعی در پزشکی (AIM) برای حمایت از پرسنل حوزه‌ی سلامت در انجام مداخلات مدیکال، کلینیکال و پاراکلینیکال ایجاد شده‌اند. براساس نتایج پژوهش‌های منتشر‌شده کاربران بالقوه‌ی سیستم‌‌های انفورماتیکی عبارتند از: پزشکان، پرستاران، دستیاران پزشکان، پرسنل پیراپزشکی، دانشجویان علوم بهداشتی، بیماران، بازرسان بیمه و دولت، داروسازان، مدیران، محققان، متخصصان کاربرد کامپیوتر، پرسنل جنبی مراقبت بهداشتی و کارفرمایان که همین مسأله‌، اخلاقی کردن پیش‌فرض‌های برنامه‌‌های انفورماتیک مبتنی بر هوش مصنوعی را توجیه می کند. با توجه به افزایش اعتماد روز افزون پزشکان و جامعه پزشکی به ارزش نرم‌افزار و سخت‌افزار‌های انفورماتیکی مرتبط با حوزه‌ی سلامت و تمایل استفاده‌ی هرچه بیش‌تر از ظرفیت‌های هوش مصنوعی در سیستم‌‌های پردازش اطلاعات از سوی جامعه‌ی پزشکی ضرورت بازخوانی چالش‌های اخلاقی این بخش و تدوین کد‌های اخلاقی مربوط به آن از طرف دست اندرکاران امر ضروری به‌نظر می‌رسد.
مسعود امن زاده، مهناز حامدان،
دوره 17، شماره 0 - ( 10-1403 )
چکیده

با پیشرفت‌های اخیر در حوزه‌ی هوش مصنوعی، استفاده از چت‌بات‌ها در سلامت، بسیار افزایش یافته است. چت‌بات‌های سلامت، ابزارهای نوآورانه‌ای هستند که در زمینه‌هایی چون: آموزش و ارائه‌ی اطلاعات پزشکی به کاربران و ارائه‌ی مشاوره‌های اولیه کاربرد دارند. علی‌رغم قابلیت‌ها و مزایای چت‌بات سلامت، این فناوری با چالش‌ها و ملاحظاتی اخلاقی همراه است که باید در کانون توجه قرار گیرد. هدف از این مطالعه، بررسی چالش‌های اخلاقی چت‌بات‌های سلامت است. این مطالعه که از نوع مروری است، با جست‌وجو و شناسایی مقالات مرتبط در پایگاه‌های اطلاعاتی مختلف، ازجمله PubMed و Scopus و WOS با استفاده از کلیدواژه‌هایی مانند Chatbot و Conversational Agent و Medical Ethic انجام شد. بر اساس معیارهای مشخصشده، چکیده و متن کامل مقالات بررسی و در نهایت، مقالات مرتبط انتخاب شدند. طبق مطالعات انجام‌شده، استفاده از چت‌بات‌های سلامت با چالش‌های اخلاقی متعددی همراه است که مهم‌ترین آن‌ها عبارت‌اند از: الف. حریم خصوصی و امنیت داده‌ها: داده‌های جمع‌آوری‌شده‌ی بیماران توسط چت‌بات‌ها، در برابر نقض امنیت و حریم خصوصی آسیب‌پذیر هستند؛ ب. دقت و قابلیت اطمینان: خطاهای احتمالی در پاسخ‌های چت‌بات‌ها، می‌تواند به تشخیص نادرست یا ارائه‌ی توصیه‌های اشتباه منجر شود و به‌طور بالقوه به بیماران آسیب برساند؛ ج. سوگیری و برابری: الگوریتم‌های هوش مصنوعی ممکن است، سوگیری‌های موجود در مجموعه‌داده‌های آموزشی را تداوم بخشند که به مراقبت نابرابر برای گروه‌های جمعیتی خاص منجر می‌شود؛ د. مسئولیت‌پذیری و پاسخ‌گویی: به دلیل نبود چهارچوب‌های قانونی مشخص، تعیین مسئولیت در صورت بروز خطا یا عواقب ناخواسته‌ی ناشی از به‌کارگیری چت‌بات‌ها، همچنان موضوعی حل‌نشده باقی مانده است؛ ه. استقلال و اعتماد: اتکای بیش‌ازحد به چت‌بات‌ها ممکن است، عنصر انسانی مراقبت را کاهش دهد و بر اعتماد و استقلال بیمار در تصمیم‌گیری تأثیر بگذارد. چت‌بات‌های سلامت در کنار مزایای شایان ‌توجه خود، چالش‌های اخلاقی مهمی نیز به همراه دارند که نیازمند توجه جدی است. تدوین سیاستها و چهارچوبهای اخلاقی، با تأکید بر حریم خصوصی، شفافیت، عدالت و پاسخگویی، از گامهای اساسی و عوامل کلیدی در این زمینه است؛ همچنین، نظارت مستمر، آموزش کاربر و پیروی از قوانینِ درحالتحولِ هوش مصنوعی می‌تواند به کاهش نگرانی‌ها و افزایش اعتماد به این فناوری کمک کند.
 

محمد شجاعی نیا،
دوره 17، شماره 0 - ( 10-1403 )
چکیده

هوش مصنوعی (Artificial Intelligence) ، رهیافتی تحول‌گرایانه و نوآورانه در مراقبت‌های بهداشتی است که می‌تواند فرایندهای تشخیصی، درمانی، اداری، آموزشی، پژوهشی و مدیریتی را دگرگون سازد. سیستم‌های هوش مصنوعی بر نحوه‌ی استدلال، تصمیم‌گیری و ارائه‌ی مراقبت اثر می‌گذارند؛ لذا، در کاربرد با چالش‌هایی ازجمله ملاحظات اخلاقی مواجه هستند که ریشه در ماهیت منحصربه‌فرد نظام سلامت دارد؛ جایی که رفاه و اعتماد بیماران و استقلال عملکرد مراقبان سلامت، بسیار اهمیت دارد. برای این مطالعه که از نوع کیفی است، منابع اطلاعاتی مختلف، ازجمله مجلات و مقالات و نشریه‌های مرتبط با موضوع مطالعه شدند؛ سپس، با بررسی کاربردهای هوش مصنوعی در محیط‌های بالینی و تأثیر آن بر ارتباط افراد با نظام سلامت، تصمیم‌سازی‌ها و گردش کار بالینی، ملاحظات اخلاقی مرتبط با آن استخراج گردید. نتایج نشان می‌دهد، به‌کارگیری هوش مصنوعی در مراقبت‌های بهداشتی، علی‌رغم مزایای گسترده‌ی آن در پیشگیری،‌ تشخیص، درمان، پیش‌بینی، تصمیم‌سازی، اتوماسیون فرایندها و روتین‌ها، توصیه‌های دارویی و درمانی،‌ هدایت اعمال جراحی، پزشکی شخصی‌سازی‌شده، سیستم‌های پزشکی از راه دور و کاربردهای متنوع دیگر، با مجموعه‌ای از ملاحظات اخلاقی مواجه است که برای تضمین استفاده‌ی مسئولانه و عادلانه از این فناوری‌ها، باید مدنظر قرار گیرد. این ملاحظات، شامل مسائل مربوط به حریم خصوصی (Privacy) بیماران و امنیت داده‌ها، انواع سوگیری‌ها (Bias) ، شفافیت (Transparency) ، توضیح‌پذیری (Explainability)، تفسیرپذیری (Interpretability) ، مسئولیت‌پذیری (Responsibility) ، پاسخ‌گویی (Accountability) ، ‌رضایت آگاهانه (Informed Consent) ،‌ میزان تأثیر بر روابط مراقبان سلامت و بیماران، دسترسی عادلانه و برابری در بهره‌مندی از مزایای هوش مصنوعی، استفاده‌ی مناسب و بجا از فناوری، استفاده‌ی اخلاقی از اتوماسیون، حفظ کرامت انسانی، نظارت و تنظیم­گری صحیح، مسائل قانونی و حقوقی و پیامدهای بلندمدت، ازقبیل جلوگیری از سوءاستفاده‌ی بیمه‌گران یا کارفرمایان از اطلاعات پیش‌بینی‌کننده و سایر موضوعات مرتبط با حقوق بیماران است. استفاده از هوش مصنوعی در مراقبت‌های بهداشتی، مستلزم ایجاد چهارچوب‌های اخلاقی و حقوقی و برقراری تعادل بین نوآوری‌ها با اصول انسانی حاکم بر نظام سلامت است، تا ضمن بهره‌برداری از مزایای این فناوری، از حریم خصوصی، عدالت،‌ برابری و کرامت انسانی محافظت شود. تمرکز بر نظارت مداوم و همسوسازی سیستم‌های مبتنی بر هوش مصنوعی با ارزش‌های انسانی می‌تواند اعتماد به این فناوری را تقویت کند و این اطمینان را به وجود آورد که ضمن رعایت استانداردهای اخلاقی، هوش مصنوعی می‌تواند به‌طور مسئولانه در خدمت بهبود سلامت عمومی جامعه قرار گیرد.

رضا صالحی نیا، مرضیه نصیری سنگری، حسین عباسیان، سجاد صالحیان،
دوره 17، شماره 0 - ( 10-1403 )
چکیده

هوش مصنوعی، یکی از پیشرفت‌های بزرگ بشری است که با توسعه‌ی فناوری‌های هوش مصنوعی در زمینه‌ی سلامت، تأثیرات مثبت آن بر ارتقاء شاخص‌های بهداشتی و درمانی، به‌طور چشمگیری افزایش یافته است؛ اما کاربرد آن با چالش‌های اخلاقی بسیاری نیز همراه است؛ ازاین‌رو، هدف از این مطالعه، بررسی ملاحظات اخلاقی در استفاده از هوش مصنوعی در حوزه‌ی سلامت است. در این مطالعه‌ی مروری، مقاله‌های منتشرشده بین فوریه ۲۰۱۹ تا نوامبر۲۰۲۴ بررسی شدند. برای جمع‌آوری مقاله‌ها، از پایگاه‌های اطلاعاتی داخلی مانند Magiran, SID و از پایگاه‌های منابع علمی خارجی نظیر PubMed, web of Science Medlib, Science Direct و موتور جست‌وجوی Google Scholar استفاده شد. برای جست‌وجو در منابع فارسی و انگلیسی، از کلمات کلیدی اخلاق، هوش مصنوعی، سلامت، Ethics, Artificial Intelligence, Healt استفاده شد. پس از ارزیابی معیارهای ورود و کیفیت مقالات، نُه پژوهش واجد شرایط، شناخته و به مطالعه‌ی حاضر وارد شدند. نتایج مطالعات پیشین نشان داده‌اند، استفاده از هوش مصنوعی در حوزه‌ی سلامت مزایایی چشمگیر همچون: تشخیص دقیق‌تر بیماری‌ها، پیش‌بینی‌های بالینی مؤثرتر، مدیریت کارآمدتر بیمارستان‌ها، بهینه‌سازی منابع، بهبود مراقبت از بیماران، بهینه‌سازی گردش کار بالینی و پیشرفت تحقیقات پزشکی را به همراه داشته است. این فناوری موجب افزایش کارایی و ارتقاء کیفیت خدمات بهداشتی شده است؛ بااین‌حال، چالش‌های اخلاقی مانند حریم خصوصی و امنیت داده‌ها، سوگیری الگوریتمی، شفافیت، اعتبارسنجی بالینی و مسئولیت حرفه‌ای همچنان وجود دارد. رعایت اصولی چون: شفافیت، انصاف، حفاظت از حریم خصوصی و تضمین دسترسی برابر برای توسعه و استفاده‌ی مسئولانه از هوش مصنوعی ضروری است. در نهایت، ایجاد تعادل میان منافع فناوری و ارزش‌های انسانی، مسیر بهره‌برداری پایدار و اخلاقی را از این فناوری هموار خواهد کرد. نتایج حاصل از مطالعات انجام‌شده نشان می‌دهد، هوش مصنوعی با ارائه‌ی راهکارهای نوآورانه، تأثیری چشمگیر در بهبود کیفیت زندگی و ارتقاء خدمات در حوزه‌های مختلف، به‌ویژه سلامت، داشته است؛ بااین‌حال، بهره‌گیری بهینه از این فناوری نیازمند توجه جدی به ملاحظات اخلاقی، نظارت دقیق بر فرایندها، و رفع چالش‌های موجود است.

عبدالحسن کاظمی،
دوره 17، شماره 0 - ( 10-1403 )
چکیده

مجله‌ها شروع به انتشار مقالاتی کرده‌اند که در آن‌ها از ربات‌های چت مانند Bard و Bing وChatGPT  استفاده شده است؛ به‌طوری‌که برخی مجلات، چت‌بات‌ها را به‌عنوان نویسندگان مشترک، فهرست می‌کنند؛ اما خروجی چت‌بات‌ها، در حال حاضر، خطراتی چون: سوگیری‌ها، تحریف‌ها، مطالب غیرمرتبط، ارائه‌ی نادرست و سرقت ادبی دارند که بسیاری از آن‌ها، ناشی از الگوریتم‌های حاکم بر تولید آن‌ها هستند و به‌شدت به محتوای مواد استفاده‌شده در آموزش آن نرم‌افزار هوش مصنوعی وابسته‌اند. مجموع نظرات و بیانیه‌های مراجع بین‌المللی چون: کمیته‌ی اخلاق نشر (COPE)، کمیته‌ی بین‌المللی ویراستاران مجلات پزشکی (ICMJE)، انجمن جهانی سردبیران پزشکی (WAME)، شورای سازمان‌های بین‌المللی علوم پزشکی (CIOMS) حاوی نکات مشترک ذیل هستند:
- فقط انسان‌ها می‌توانند نویسنده باشند.
- نویسندگان باید منابع مطالب خود را بدانند.
- نویسندگان باید مسئولیت عمومی کار خود را بپذیرند.
- ویراستاران و داوران باید برای نویسندگان و یکدیگر، هرگونه استفاده از ربات‌های گفت‌وگو را در ارزیابی نسخه‌ی خطی و تولید نقدها و مکاتبات مشخص کنند.
- ویراستاران برای مقابله با تأثیرات چت‌بات‌ها بر انتشار، به ابزارهای دیجیتالی مناسب نیازمندند.
علاوه‌براین، این ویرایش تصدیق می‌کند که چت‌بات‌ها برای انجام‌دادن عملکردهای مختلف در نشریات علمی استفاده می‌شوند. چت‌ربات‌ها نمی‌توانند نویسنده باشند. اگرچه وضعیت حقوقی یک نویسنده از کشوری به کشور دیگر متفاوت است، در اکثر حوزه‌های قضایی، نویسنده باید شخصی حقوقی باشد. چت‌بات‌ها معیارهای تألیف کمیته‌ی بین‌المللی ویراستاران مجلات پزشکی را برآورده نمی‌کنند، به‌ویژه اینکه نمی‌توانند بعضی امور را ارزیابی کنند؛ اموری چون: تأیید نهایی نسخه‌ای که باید منتشر شود؛ مسئولبودن برای تمام جنبه‌های کار در حصول اطمینان از اینکه سؤالات مرتبط هستند، بهدقت یا یکپارچگی هر بخشی از کار بهطور مناسب بررسی و حل میشود.هیچ ابزار هوش مصنوعی نمی‌تواند بیانیه‌ی تضاد منافع را درک کند و وجهه‌ی قانونی امضای بیانیه را ندارد. چت‌بات‌ها مستقل از توسعه‌دهندگان خود، وابستگی ندارند. ازآنجاکه نویسندگانی که یک سخه‌ی خطی را ارسال می‌کنند، باید اطمینان حاصل کنند، همه‌ی کسانی که به‌عنوان نویسنده نام‌گذاری شده‌اند، معیارهای تألیف را دارند، ربات‌های گفت‌وگو نمی‌توانند به‌عنوان نویسنده گنجانده شوند. نویسندگان باید هنگام استفاده از چت‌بات‌ها شفاف باشند و اطلاعاتی را درباره‌ی نحوه‌ی استفاده از آ‌ن‌ها ارائه دهند. میزان و نوع استفاده از چت‌بات‌ها در نشریات و مجلات باید مشخص شود. این درخواست با توصیه‌ی کمیته‌ی بین‌المللی ویراستاران مجلات پزشکی، مبنی بر تأیید کمک نوشتاری و ارائه‌ی اطلاعات دقیق درباره‌ی نحوه‌ی انجام‌دادن مطالعه و نتایج تولیدشده در روش‌ها مطابقت دارد. نویسندگانی که مقاله‌ای را ارسال می‌کنند که در آن از یک ربات چت/ AIبرای پیش‌نویس متن جدید استفاده شده است، باید در قدردانی، به چنین استفاده‌ای اشاره کنند. همه‌ی اعلان‌های استفاده‌شده برای تولید متن جدید یا تبدیل متن یا درخواست‌های متنی به جداول یا تصاویر باید مشخص شوند. هنگامی که برای انجام‌دادن یا تولید کار تحلیلی، کمک به گزارش نتایج (مانند تولید جدول‌ها یا شکل‌ها) یا نوشتن کدهای کامپیوتری، از یک ابزار هوش مصنوعی مانند ربات چت استفاده می‌شود، باید در متن مقاله ذکر شود. در هر دو بخش چکیده و روش، به‌منظور فراهم‌کردن امکان بررسی دقیق علمی نظیر تکرار و شناسایی جعل، باید اعلان کامل استفاده‌شده برای تولید نتایج تحقیق، زمان و تاریخ پرس‌وجو و ابزار هوش مصنوعی به‌کاررفته و نسخه‌ی آن ارائه شود. ویراستاران و داوران همتا باید برای نویسندگان و یکدیگر، هرگونه استفاده از ربات‌های گفت‌وگو را در ارزیابی نسخه‌های خطی و تولید نظرات و مکاتبات مشخص کنند. اگر آن‌ها از چت‌بات‌ها در ارتباطات خود با نویسندگان و یکدیگر استفاده می‌کنند، باید نحوه‌ی استفاده از آن‌ها را توضیح دهند. ویراستاران و داوران، مسئول هرگونه محتوا و نقل‌قول تولیدشده توسط ربات/ چت هستند. آنان باید توجه داشته باشند که چت‌بات‌ها درخواست‌هایی را که به آن‌ها داده می‌شود، ازجمله محتوای دست‌نوشته را حفظ می‌کنند و ارائه‌ی دست‌نوشته‌ی نویسنده به یک ربات چت، محرمانه‌بودن دست‌نوشته‌ی ارسال‌شده را نقض می‌کند. ویراستاران به ابزارهای مناسب برای کمک به شناسایی محتوای تولیدشده یا تغییریافته توسط هوش مصنوعی نیاز دارند. چنین ابزارهایی باید بدون توجه به توانایی پرداخت هزینه برای آن‌ها، به نفع علم و عموم مردم و برای کمک به اطمینان از یکپارچگی اطلاعات مراقبت‌های بهداشتی و کاهش خطر پیامدهای نامطلوب سلامت، در دسترس ویراستاران قرار گیرد. بسیاری از سردبیران مجلات پزشکی از رویکردهای ارزیابی دست‌نوشته استفاده می‌کنند که برای مقابله با هوش مصنوعی طراحی نشده‌اند. در حال حاضر، افراد در انتشارات علمی می‌توانند از چت‌بات‌ها برای اموری چون: کارهای ساده‌ی پردازش کلمه (مشابه با نرم‌افزار واژه‌پردازی و بررسی دستور زبان و توسعه‌ی آن)، تولید ایده‌ها و متن و محتوای اساسی پژوهش استفاده کنند.

نفیسه رضائی، رشا اطلسی،
دوره 17، شماره 0 - ( 10-1403 )
چکیده

اخلاق هوش مصنوعی، مجموعه‌ای از اصول و استانداردهایی است که متخصصان و کاربران در طراحی و استفاده از هوش مصنوعی به آن‌ها توجه می‌کنند و احترام به حریم کاربران، امنیت و عدالت در استفاده از هوش مصنوعی را در بر می‌گیرد. هدف از این پژوهش، تحلیل علم‌سنجی مطالعات انجام‌شده در این حوزه، تا زمان کنونی و یافتن ویژگی‌ها و موضوعات ترند در آن‌ها بوده است؛ ازاین‌رو، نخست، با استفاده از سرعنوان‌های موضوعی پزشکی مش (MESH) که هوش مصنوعی و اخلاق بودند، در پایگاه PubMed جست‌وجو صورت گرفت؛ سپس، تمام مدارک نمایه‌شده از ابتدا تا تاریخ اول سپتامبر ۲۰۲۴، بازیابی و ذخیره شدند. در مرحله‌ی بعد، تحلیل علم‌سنجی و مصورسازی داده‌ها با استفاده از برنامه‌ی R انجام گرفت و نتایج در قالب جدول‌ها و نمودار‌ها و نقشه‌های علمی، ارائه شدند. 534 مدرک از سال 1986 تا 2024 در این حوزه وجود داشت که بیشترینِ آن‌ها (n=70)، در سال 2024 منتشر شده بودند. مجله‌ی The American Journal of Bioethics بیشترین مطالعه را در این زمینه منتشر کرده بود (n=30) و Melissa D McCradden ) از گروه اخلاق زیستی دانشگاه تورنتو کانادا( با پنج مقاله، پرکارترین نویسنده در این حوزه بوده است. University of Oxford با ۲۴ مقاله و Stanford University School of Medicine با ۲۱ مقاله، به‌ترتیب، بیشترین مقاله را در این حوزه، منتشر کرده بودند؛ همچنین، ایالات متحده آمریکا (n=236)، آلمان (n=91) و فرانسه (n=52) به‌ترتیب، فعال‌ترین کشورها در حوزه‌ی اخلاق و هوش مصنوعی بوده‌اند. Research Personnel، Informed Consent / Ethics و Artificial Intelligence / Ethics /Trends هر سه، بیشترین ترند موضوعی در سال ۲۰۲۴ بوده‌اند و در سال ۲۰۲۳ نیز Privacy Biomedical Research, و Education, Medical به‌ترتیب، بیشترین ترند موضوعی، در این حوزه بوده‌اند. در طی سال‌های اخیر، تولیدات علمی حوزه‌ی اخلاق و هوش مصنوعی، رشد صعودی داشته‌اند. به نظر می‌رسد این رشد، بهمنظور توسعه‌ی روزافزون طراحی و نیز کاربرد هوش مصنوعی در حوزه‌های مختلف علمی و نیز زندگی روزمره است؛ ازاین‌رو، توجه به جنبه‌های مختلف اخلاقی و نکات مهم نوظهور در این حوزه و نیز افزایش همکاری‌های بین‌المللی در پژوهش و آموزش، می‌تواند به استفاده‌ی مؤثرتر از هوش مصنوعی و چالش‌های کمتر در این حوزه منجر شود.
 

امیرمحمد آذرخش، محمدرضا دین محمدی، کیان نوروزی تبریزی، کوثر نوری،
دوره 17، شماره 0 - ( 10-1403 )
چکیده

در سال‌های اخیر، هوش مصنوعی (AI) به نیرویی اثرگذار در انتشار مقالات پژوهشی تبدیل شده و چشم‌انداز نوشتن علمی و انتشار آثار را متحول کرده است؛ بااین‌حال، ادغام هوش مصنوعی در این فرایند، چالش‌های اخلاقی شایان توجهی را به وجود می‌آورد که نیازمند بررسی دقیق است. در این مطالعه‌ی مروری، از کلیدواژه‌هایی مانند هوش مصنوعی، اخلاق انتشار، چالش‌های اخلاقی، یکپارچگی علمی و انتشار پژوهش برای جست‌وجو در پایگاه‌های داده‌ی علمی شامل PubMed، Scopus، CINAHL و Google Scholar استفاده شد. مقالات منتشرشده بین سال‌های ۲۰۱۰ تا ۲۰۲۴ به زبان‌های انگلیسی و فارسی انتخاب شدند. این مرور بر روی مقالات پژوهشی، مرورهای نظام‌مند و گزارش‌های موردی که کلیدواژه‌های پیش‌گفته را در عناوین و چکیده‌های خود داشتند، متمرکز بود. در مجموع، پس از بررسی ۱۵۰ مقاله، ۵۰ مطالعه‌ی مرتبط برای تحلیل دقیق‌تر انتخاب شدند. تحلیل انجام‌شده چندین چالش اخلاقی مرتبط با استفاده از هوش مصنوعی در انتشار مقالات پژوهشی را برجسته کرد. مسائل مربوط به یکپارچگی علمی مشهود است؛ زیرا محتوای تولیدی هوش مصنوعی ممکن است مرزهای بین پژوهش‌های اصیل و نوشتن خودکار را محو کند و نگرانی‌هایی را درباره‌ی نویسندگی و سرقت ادبی ایجاد کند؛ علاوه‌براین، اتکا به ابزارهای هوش مصنوعی برای تحلیل داده‌ها و آماده‌سازی دست‌نوشته‌ها، می‌تواند به سؤالاتی درباره‌ی دقت و اعتبار نتایج پژوهش منجر شود؛ همچنین، نگرانی‌هایی درباره‌ی تعصبات احتمالی نهفته در الگوریتم‌های هوش مصنوعی وجود دارد که ممکن است بر انتخاب موضوعات، چهارچوب‌سازی سؤالات پژوهشی و حتی فرایند داوری همتا اثر بگذارد. شفاف‌نبودن فرایندهای ویرایشی مبتنی بر هوش مصنوعی می‌تواند اعتماد به نشر علمی را تضعیف کند؛ بنابراین لازم است، دستورالعمل‌های اخلاقی روشنی برای استفاده از هوش مصنوعی در انتشار پژوهش‌ها ایجاد شود. این مرور بر نیاز فوری به چهارچوب‌ها و مقررات اخلاقی قوی برای مدیریت استفاده از هوش مصنوعی در انتشار مقالات پژوهشی تأکید می‌کند. در نهایت توصیه می‌شود، از طریق آموزش، آگاهی پژوهشگران و ویراستاران را درباره‌ی پیامدهای اخلاقی هوش مصنوعی، افزایش و همکاری‌های بین‌رشته‌ای را نیز برای رسیدگی مؤثر به این چالش‌ها توسعه دهند.


صفحه 1 از 1     

کلیه حقوق این وب سایت متعلق به اخلاق و تاریخ پزشکی ایران می‌باشد.

طراحی و برنامه نویسی: یکتاوب افزار شرق

© 2026 , Tehran University of Medical Sciences, CC BY-NC 4.0

Designed & Developed by: Yektaweb