مرز باریک میان واقعی هشدار درباره ی تصاویر نانومواد تولیدشده با هوش مصنوعی

وبو: سردبیر نشریه نیچر اخیرا مقاله ای درباره ی سو استفاده از هوش مصنوعی برای تولید تصاویر نانومواد منتشر نموده است.

رشد خیره کننده هوش مصنوعی، حال ساخت تصاویری از نانومواد با جزئیاتی واقعی تر از همیشه تنها با چند دستور ساده ممکن شده است. محققان هشدار می دهند که این قابلیت، در کنار مزایای علمی فراوان، تهدیدی جدی برای صداقت پژوهش های علمی در عرصه نانو به شمار می آید.
به نقل از ستاد ویژه توسعه فناوری نانو، در شماره جدید مجله Nature Nanotechnology، نویسنده چنین عنوان کرده که هوش مصنوعی می تواند تصاویر میکروسکوپی از نانوساختار هایی خلق کند که حتی متخصصان نیز قادر به تشخیص جعلی بودن آنها نیستند. این مسئله، پرسشی اساسی را پیش روی جامعه علمی قرار داده است: چطور میتوان در عصر هوش مصنوعی، مرز میان کشف علمی و جعل داده را از هم تفکیک کرد؟
در این مقاله، زنگ خطری جدی برای دنیای علم به صدا درآمده است. در این مقاله دیدگاه محور، ضمن اشاره به گسترش ابزار های هوش مصنوعی مولد، نگرانی ا از احتمال سوءاستفاده از این فنآوری در مقالات علمی، خصوصاً در عرصه سنتز و شناسایی نانومواد، اعلام شده است.
بگفته نویسنده، تنها با چند ساعت آموزش و چند دستور متنی ساده، هوش مصنوعی می توان تصاویر میکروسکوپی نیروی اتمی (AFM) و میکروسکوپ الکترونی (EM) از نانوساختار هایی ساخت که در عمل از تصاویر واقعی قابل تشخیص نیستند. این فناوری حتی می تواند تصاویری از «نانومواد خیالی» ـ مانند ساختار هایی موسوم به نانوچیتوس ـ تولید کرد. در این مقاله از خوانندگان خواسته شده است که خود بیازمایند آیا می توانند میان تصویر واقعی و جعلی تفاوتی بیابند یا نه.
هر چند چنین قابلیتی اعجاب انگیز به نظر می آید، اما در حقیقت هشداری است در مورد لطمه پذیری اخلاق علمی. در گذشته، جعل تصاویر میکروسکوپی مستلزم مهارت فنی و صرف زمان زیاد بود، اما حال ابزار های هوش مصنوعی در چند ثانیه می توانند داده هایی بطورکامل ساختگی و با این وجود باورپذیر تولید کنند. نویسندگان تاکید می کنند که خطر اصلی، نه در توانایی فناوری بلکه در استفاده ناصحیح از آن توسط پژوهشگرهایی است که امکان دارد برای کسب اعتبار، تصاویر جعلی در مقالات خود منتشر کنند.
راه حل پیشنهادی این گروه، آموزش و فرهنگ سازی است. آنان می گویند تربیت علمی باید از دوران کارشناسی شروع شود و در مقاطع تحصیلات تکمیلی با آموزش دقیق اصول اخلاق پژوهش ادامه یابد. از دید آنان، «یک لابراتوار سالم» یعنی جایی که دقت علمی، راستی سنجی داده ها و تعهد به صداقت، قسمتی از هویت روزمره محققان باشد. نویسندگان این مقاله پیشنهاد می کنند که دوره های آموزش «تمامیت پژوهش» (research integrity) باید برای همه دانشجویان دکتری در سرتاسر جهان الزامی شود.
مقاله مورد اشاره همین طور به سه محور اصلی تخلف در پژوهش اشاره دارد: سرقت علمی، تحریف داده و جعل نتایج. تصاویر تولیدشده با هوش مصنوعی، چنان چه بعنوان داده واقعی منتشر شوند، مصداق کامل جعل علمی خواهند بود.
اما در کنار خطرات، ابزار های هوش مصنوعی خود می توانند قسمتی از راهکار باشند. ناشران بزرگ علمی، همچون اسپرینگر نیچر (Springer Nature)، حال از نرم افزار های هوشمند برای شناسایی جعل و دست کاری تصاویر استفاده می نمایند. در مجلات خانواده Nature، تمامی مقالات زیست علوم قبل از پذیرش، با بهره گیری از ابزار هوش مصنوعی موسوم به Proofig مورد بررسی قرار می گیرند تا هر گونه دست کاری احتمالی آشکار شود. پروسه مشابهی نیز در مجلات Science اجرا می شود.
با این وجود، نویسندگان یادآور می شوند که نظام داوری علمی هیچ گاه برای کشف تقلب طراحی نشده است؛ این نظام بر اعتماد متقابل میان محققان استوار است. آنان باور دارند حفظ این اعتماد، مسئولیتی جمعی است که بر دوش همه نهاد های علمی، دانشگاه ها، ناشران و حتی دولت ها قرار دارد. همکاری نزدیک تر میان توسعه دهندگان ابزار های هوش مصنوعی و متخصصان اخلاق پژوهش می تواند قدمی مؤثر در حفظ سلامت علم باشد.
در قسمتی از مقاله بگفته ای از ریچارد فاینمن، فیزیک دان برجسته آمریکایی، اشاره شده است: «حقیقت، دیر یا زود آشکار می شود. دیگران آزمایش شما را تکرار می کنند و درستی یا نادرستی آنرا خواهند سنجید. شهرت علمی پایدار، تنها از صداقت به دست می آید.»
در انتها مقاله تاکید شده است که هوش مصنوعی در نقطه ای حساس از تاریخ علم ظاهر شده است؛ زمانیکه پژوهش های پر سرعت و داده های عظیم، مغز انسان را به چالش کشیده اند. این فناوری، اگر درست به کار گرفته شود، می تواند خلاقیت، دقت و سرعت علم را چندین برابر کند. اما اگر در راه ناصحیح گام بردارد، امکان دارد اعتماد به علم را متزلزل سازد؛ اعتمادی که سنگ بنای پیشرفت بشری است.
منبع: ایرنا

منبع:

Leave a Reply

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *