مرز باریک میان واقعیهشدار درباره تصاویر نانومواد تولیدشده با هوش مصنوعی ت و جعل؛
سردبیر نشریه نیچر به تازگی مقالهای درباره سوء استفاده از هوش مصنوعی برای تولید تصاویر نانومواد منتشر کرده است.

باشگاه خبرنگاران جوان - رشد خیرهکننده هوش مصنوعی، اکنون ساخت تصاویری از نانومواد با جزئیاتی واقعیتر از همیشه تنها با چند دستور ساده ممکن شده است.
پژوهشگران هشدار میدهند که این توانایی، در کنار مزایای علمی فراوان، تهدیدی جدی برای صداقت پژوهشهای علمی در حوزه نانو بهشمار میآید.
به نقل از ستاد ویژه توسعه فناوری نانو، در شماره جدید مجله Nature Nanotechnology، نویسنده چنین عنوان کرده که هوش مصنوعی میتواند تصاویر میکروسکوپی از نانوساختارهایی خلق کند که حتی متخصصان نیز قادر به تشخیص جعلی بودن آنها نیستند.
این مسئله، پرسشی اساسی را پیش روی جامعه علمی قرار داده است: چگونه میتوان در عصر هوش مصنوعی، مرز میان کشف علمی و جعل داده را از هم تفکیک کرد؟
در این مقاله، زنگ خطری جدی برای دنیای علم به صدا درآمده است.
در این مقاله دیدگاهمحور، با اشاره به گسترش ابزارهای هوش مصنوعی مولد، نگرانی ا از احتمال سوءاستفاده از این فناوری در مقالات علمی، بهویژه در حوزه سنتز و شناسایی نانومواد، اعلام شده است.
به گفته نویسنده، تنها با چند ساعت آموزش و چند دستور متنی ساده، هوش مصنوعی میتوان تصاویر میکروسکوپی نیروی اتمی (AFM) و میکروسکوپ الکترونی (EM) از نانوساختارهایی ساخت که عملاً از تصاویر واقعی قابلتشخیص نیستند.
این فناوری حتی قادر است تصاویری از «نانومواد خیالی» ـ مانند ساختارهایی موسوم به نانوچیتوس ـ تولید کرد.
در این مقاله از خوانندگان خواسته شده است که خود بیازمایند آیا میتوانند میان تصویر واقعی و جعلی تفاوتی بیابند یا نه.
هر چند چنین قابلیتی شگفتانگیز بهنظر میرسد، اما در واقع هشداری است در مورد آسیبپذیری اخلاق علمی.
در گذشته، جعل تصاویر میکروسکوپی مستلزم مهارت فنی و صرف زمان زیاد بود، اما اکنون ابزارهای هوش مصنوعی در چند ثانیه میتوانند دادههایی کاملاً ساختگی و در عین حال باورپذیر تولید کنند.
نویسندگان تأکید میکنند که خطر اصلی، نه در توانایی فناوری بلکه در استفاده نادرست از آن توسط پژوهشگرانی است که ممکن است برای کسب اعتبار، تصاویر جعلی در مقالات خود منتشر کنند.
راهکار پیشنهادی این گروه، آموزش و فرهنگسازی است.
آنان میگویند تربیت علمی باید از دوران کارشناسی آغاز شود و در مقاطع تحصیلات تکمیلی با آموزش دقیق اصول اخلاق پژوهش ادامه یابد.
از نگاه آنان، «یک آزمایشگاه سالم» یعنی جایی که دقت علمی، راستیسنجی دادهها و تعهد به صداقت، بخشی از هویت روزمره پژوهشگران باشد.
نویسندگان این مقاله پیشنهاد میکنند که دورههای آموزش «تمامیت پژوهش» (research integrity) باید برای همه دانشجویان دکتری در سراسر جهان اجباری شود.
مقاله یادشده همچنین به سه محور اصلی تخلف در پژوهش اشاره دارد: سرقت علمی، تحریف داده و جعل نتایج.
تصاویر تولیدشده با هوش مصنوعی، چنانچه بهعنوان داده واقعی منتشر شوند، مصداق کامل جعل علمی خواهند بود.
اما در کنار خطرات، ابزارهای هوش مصنوعی خود میتوانند بخشی از راهحل باشند.
ناشران بزرگ علمی، از جمله اسپرینگر نیچر (Springer Nature)، اکنون از نرمافزارهای هوشمند برای شناسایی جعل و دستکاری تصاویر استفاده میکنند.
در مجلات خانواده Nature، تمامی مقالات زیستعلوم پیش از پذیرش، با استفاده از ابزار هوش مصنوعی موسوم به Proofig مورد بررسی قرار میگیرند تا هر گونه دستکاری احتمالی آشکار شود.
فرآیند مشابهی نیز در مجلات Science اجرا میشود.
با این حال، نویسندگان یادآور میشوند که نظام داوری علمی هرگز برای کشف تقلب طراحی نشده است؛ این نظام بر اعتماد متقابل میان پژوهشگران استوار است.
آنان معتقدند حفظ این اعتماد، مسئولیتی جمعی است که بر دوش همه نهادهای علمی، دانشگاهها، ناشران و حتی دولتها قرار دارد.
همکاری نزدیکتر میان توسعهدهندگان ابزارهای هوش مصنوعی و متخصصان اخلاق پژوهش میتواند گامی مؤثر در حفظ سلامت علم باشد.
در بخشی از مقاله به گفتهای از ریچارد فاینمن، فیزیکدان برجسته آمریکایی، اشاره شده است: «حقیقت، دیر یا زود آشکار میشود.
دیگران آزمایش شما را تکرار میکنند و درستی یا نادرستی آن را خواهند سنجید.
شهرت علمی پایدار، تنها از صداقت بهدست میآید.»
در پایان مقاله تأکید شده است که هوش مصنوعی در نقطهای حساس از تاریخ علم ظاهر شده است؛ زمانی که پژوهشهای پر سرعت و دادههای عظیم، مغز انسان را به چالش کشیدهاند.
این فناوری، اگر درست بهکار گرفته شود، میتواند خلاقیت، دقت و سرعت علم را چندین برابر کند.
اما اگر در مسیر نادرست گام بردارد، ممکن است اعتماد به علم را متزلزل سازد؛ اعتمادی که سنگبنای پیشرفت بشری است.
منبع: ایرنا