8/10/2025 7:09:09 PM

هوش مصنوعی دروغ را راست جلوه می‌دهد

یکی از ظریف‌ترین و موذیانه‌ترین تهدیدات ناشی از هوش مصنوعی و فناوری‌های مرتبط، توانایی آن در دستکاری خاطرات است. مطالعات جدید نشان می‌دهد که هوش مصنوعی با چه سهولتی می‌تواند مردم را فریب دهد تا چیزهایی را به خاطر بیاورند که هرگز اتفاق نیفتاده‌اند.

به نقل از بلومبرگ، «الیزابت لافتوس»(Elizabeth Loftus) روانشناس و استاد دانشگاه کالیفرنیا، ۵۰ سال گذشته را صرف اثبات این موضوع کرده است که انسان‌ها چقدر راحت می‌توانند فریب داده شوند تا چیزهایی را به خاطر بیاورند که هرگز اتفاق نیفتاده‌اند. این اتفاق در بین دادستان‌ها و پلیس‌هایی که از شاهدان بازجویی می‌کنند بسیار رایج است.

اکنون «لافتوس» با دانشمندان «موسسه فناوری ماساچوست»(MIT) همکاری کرده است تا بررسی کنند که هوش مصنوعی چگونه می‌تواند آنچه را که فکر می‌کنیم به خاطر می‌آوریم، دستکاری کند. این دستکاری حتی زمانی رخ می‌دهد که سوژه‌ها می‌دانند در حال مشاهده متن و تصاویر تولید شده توسط هوش مصنوعی هستند.

یافته‌ها نشان می‌دهد که هوش مصنوعی می‌تواند توانایی انسان‌ها را برای کاشت خاطرات دروغین افزایش دهد.

«لافتوس» نشان داد که در یک سری از آزمایش‌های معروف که از دهه ۱۹۷۰ آغاز شد، روانشناسان با پیشنهادهای مناسب می‌توانند خاطراتی را در ذهن افراد بکارند که در کودکی در یک مرکز خرید گم شده بودند یا اینکه در یک پیک‌نیک از خوردن تخم مرغ یا بستنی توت فرنگی بیمار شده بودند. مورد آخر در واقع مردم را از تمایل به آن غذاها منصرف می‌کرد. با وجود این شواهد، ما هنوز نمی‌توانیم این ایده را که حافظه مانند یک ضبط صوت از رویدادهاست، کنار بگذاریم و این درک نادرست از ذهن، ما را آسیب‌پذیر می‌کند.

«لافتوس» گفت: افرادی که به این مدل ضبط صوت از حافظه پایبند هستند، به نظر نمی‌رسد متوجه باشند که حافظه یک فرآیند ساختاری است. مغز ما خاطرات را از تکه‌هایی که در زمان‌های مختلف به دست می‌آید، می‌سازد. ما به طور شهودی فراموشی را از دست دادن یا محو شدن خاطرات درک می‌کنیم نه افزودن جزئیات دروغین. در نظر گرفتن اینکه هوش مصنوعی چقدر مؤثر می‌تواند این نوع فریب را در مقیاس وسیع انجام دهد، ترسناک است.

وی همچنین در حال مطالعه پتانسیل مبهم نظرسنجی‌های دستکاری شده بوده است، جایی که طراحان نظرسنجی، اطلاعات نادرست را در یک سؤال جای می‌دهند.

«پت پاتارانوتاپرن»(Pat Pataranutaporn) دانشمند آزمایشگاه رسانه «MIT» خاطرنشان می‌کند: دستکاری حافظه، فرآیند بسیار متفاوتی با فریب دادن مردم با «جعل عمیق»(deep-fake) است. نیازی به ایجاد یک جعل پیچیده نیست، فقط باید مردم را متقاعد کنید که قبلاً چیزی را در آنجا خوانده‌اند. مردم معمولاً حافظه خود را زیر سؤال نمی‌برند.

«جعل عمیق» یا «دیپ فیک»، ترکیبی از کلمه‌های «یادگیری عمیق» و «جعلی» است که یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.

پاتارانوتاپرن نویسنده ارشد سه آزمایش حافظه بود که اولین آنها نشان داد چگونه بازجویان هوش مصنوعی می‌توانند شهادت شاهد را تنها با جای دادن پیشنهادها در سؤالات خود تغییر دهند. شرکت‌کنندگان، ویدئویی از یک سرقت مسلحانه را تماشا کردند. سپس از برخی از آنها سؤالات گمراه‌کننده پرسیده شد، مانند اینکه «آیا دوربین امنیتی در نزدیکی محلی که سارقان خودرو را پارک کردند، وجود داشت؟» و حدود یک سوم از شرکت‌کنندگان بعداً به یاد آوردند که سارقان با خودرو آمده‌ بودند، اما حقیقت آن بود که اصلا خودرویی وجود نداشت. این حافظه کاذب حتی یک هفته بعد هم باقی ماند.

سوژه‌ها به سه گروه تقسیم شدند. یک گروه هیچ سؤال گمراه‌کننده‌ای دریافت نکردند، گروه دیگر آنها را به صورت کتبی دریافت کردند و گروه سوم آنها را از یک ربات چت هوش مصنوعی دریافت کردند. گروه ربات چت ۱/۷ برابر بیشتر از کسانی که اطلاعات گمراه‌کننده را به صورت کتبی دریافت کردند، خاطرات کاذب تشکیل دادند.

مطالعه دیگری نشان داد که خلاصه‌های هوش مصنوعی ناصادق یا ربات‌های چت می‌توانند به راحتی خاطرات کاذب را در داستانی که مردم می‌خوانند، وارد کنند. «پاتارانوتاپرن» گفت: آنچه نگران‌کننده‌تر است، این بود که شرکت‌کنندگانی که خلاصه‌های هوش مصنوعی گمراه‌کننده دریافت کردند، اطلاعات واقعی کمتری را از خواندن خود حفظ کردند و اعتماد کمتری به اطلاعات واقعی که به یاد آوردند، گزارش کردند.

مطالعه سوم نشان داد که هوش مصنوعی چگونه می‌تواند با استفاده از تصاویر و ویدئو، خاطرات کاذب را در ذهن بکارد. محققان ۲۰۰ داوطلب را به چهار گروه تقسیم کردند. شرکت‌کنندگان در هر گروه مجموعه‌ای از ۲۴ تصویر را مشاهده کردند. برخی تصاویر معمولی بودند که در وب‌سایت‌های خبری یافت می‌شدند، در حالی که برخی دیگر شخصی بودند، مانند عکس‌های عروسی که ممکن است کسی در رسانه‌های اجتماعی پست کند.

به هر گروه نسخه متفاوتی از تصاویر نشان داده شد. یک گروه تصاویر یکسان و بدون تغییر را مشاهده کردند. گروه دوم نسخه‌های تغییر یافته هوش مصنوعی را مشاهده کردند. گروه سوم تصاویر تغییر یافته هوش مصنوعی را که به ویدئوهای کوتاه تبدیل شده بود، مشاهده کردند. گروه نهایی تصاویر کاملاً تولید شده توسط هوش مصنوعی را مشاهده کردند که به ویدئوهای تولید شده توسط هوش مصنوعی تبدیل شده بودند.

حتی گروهی که تصاویر اصلی را دیدند، چند خاطره کاذب را به یاد آوردند، اما شرکت‌کنندگانی که در معرض هر سطحی از دستکاری هوش مصنوعی قرار گرفتند، به طور قابل توجهی خاطرات کاذب بیشتری را گزارش کردند. گروهی که بالاترین نرخ تحریف حافظه را داشت، گروهی بود که ویدئوهای تولید شده توسط هوش مصنوعی را مشاهده کرده بودند.

افراد جوان‌تر کمی بیشتر از افراد مسن‌تر مستعد گنجاندن خاطرات کاذب بودند و سطح تحصیلات به نظر نمی‌رسید بر آسیب‌پذیری تأثیر بگذارد. قابل توجه است که خاطرات کاذب به فریب دادن شرکت‌کنندگان که محتوای تولید شده توسط هوش مصنوعی واقعی است، متکی نبود و به آنها از ابتدا گفته شده بود که محتوای تولید شده توسط هوش مصنوعی را مشاهده خواهند کرد.

برخی از تغییرات شامل تغییراتی در پس‌زمینه بود. تصاویر بیشتر ویژگی‌های اصلی را حفظ کردند. طبق گفته کارشناسان اطلاعات نادرست برای داشتن تأثیر واقعی، باید داستانی را دربرگیرد که حداقل ۶۰ درصد آن درست باشد. این مطالعات جدید باید بحث‌های بیشتری را در مورد تأثیرات فناوری بر درک ما از واقعیت تحریک کند که می‌تواند فراتر از صرف انتشار اطلاعات نادرست باشد. الگوریتم‌های رسانه‌های اجتماعی نیز با ایجاد تصور غلط از محبوبیت و نفوذ، مردم را تشویق می‌کنند تا ایده‌های حاشیه‌ای و نظریه‌های توطئه را بپذیرند. ربات‌های چت هوش مصنوعی تأثیرات ظریف‌تر و غیرمنتظره‌ای بر ما خواهند داشت. همه ما باید برای تغییر عقیده‌مان با حقایق جدید و استدلال قوی آماده باشیم و نسبت به تلاش‌ها برای تغییر عقیده‌مان با تحریف آنچه می‌بینیم یا احساس می‌کنیم یا به یاد می‌آوریم، محتاط باشیم.


هوش مصنوعی دروغ را راست جلوه می‌دهد

برچسب‌ها

نظر شما


مطالب پیشنهادی