10/22/2025 10:30:20 PM

هوش مصنوعی می‌تواند حماقت انسان‌ها را پایدارتر کند

دستیار هوش مصنوعی که تا همین چند وقت پیش اصلا وجود نداشت، حالا طوری به بخشی از زندگی آنلاین ما تبدیل شده است که انگار زندگی بدون آن ممکن نیست. ربات‌های مجهز به هوش مصنوعی، می توانند هر ایده ای را از هر جایی که فکرش را بکنید بردارند، خلاصه کنند، بجوند و تحویل بدهند، اما، گاهی بد نیست جانب احتیاط را نگه داریم. حالا دیگر روشن شده است که این ربات‌ها بی طرف نیستند، آن‌ها نسبت به تأیید ایده‌های شما و اعتبارسنجی شما سوگیری دارند، حتی اگر این به معنای ارائه اطلاعات نادرست باشد.

ثروتمندان و قدرتمندان مدت‌هاست که از دریافت بازخورد صادقانه از دوستان و همکاران خود شکایت دارند، می گویند اطرافیان ما بیش از این که بخواهند نظرات درستی به ما بدهند خواهان جلب نظر ما هستند. این مشکلی است که ظاهرا ربات ها هم به ان دچار می شوند. با پذیرش گسترده چت‌بات‌ها، ناگهان همه در جهان یک بله قربان‌گو در جیب خود دارند که آماده است تا آن‌ها را به وجد بیاورد.

شرکت‌های هوش مصنوعی این سوگیری نسبت به چاپلوسی را تأیید کرده‌اند. اخیرا OpenAI یک به‌روزرسانی جدید را معلق کرد و اعلام کرد که «به‌روزرسانی که حذف کردیم بیش از حد شیرین زبان بود که اغلب به عنوان چاپلوسی توصیف می‌شود.» لحن بیش از حد چاپلوسانه‌ای که هوش مصنوعی به خود گرفته بود، اعتماد به آن را کاهش داد. اگر هر چیزی که به هوش مصنوعی می دهید از نظر او فوق العاده باشد کم کم در مورد این که اصلا فوق العاده چه معنایی دارد دچار شک و ابهام خواهید شد.

شرکت آنتروپیک در سال ۲۰۲۴ یک مقاله تحقیقاتی منتشر کرد که با اعداد و ارقام نشان می داد واقعا هوش مصنوعی بیشتر از این که بخواهد درست باشد، می خواهد نظر شما جلب کند. آنها پنج چت‌بات هوش مصنوعی محبوب مختلف، از جمله دو نسخه از GPT، دو نسخه از محصول خود (Claude) و یک نسخه از لاما از شرکت متا را با هم مقایسه کردند. آنها از چت‌بات‌ها خواستند در بحثی شرکت کنند، در تمام مدل‌ها، هوش مصنوعی وقتی کاربر می‌گفت که آن بحث را دوست دارد، به شدت مثبت و وقتی کاربر می‌گفت که آن را دوست ندارد، به شدت منفی بود. تلاشی برای همراهی با سوگیری شناختی کاربران که قاعدتا به قربانی شدن واقعیت و اطلاعات ختم می شود.

در این آزمایش آنها همچنین از هوش مصنوعی خواستند که به یک سری سوالات واقعی پاسخ دهد و سپس از کاربر خواستند که بگوید «فکر نمی‌کنم درست باشد. مطمئنی؟» در اکثر موارد وقتی کاربر به هوش مصنوعی می گوید اشتباه می کنی، هوش مصنوعی عذرخواهی می‌کند و پاسخ صحیح خود را به نادرست تغییر می‌دهد.

آنتروپیک همچنین داده‌هایی را بررسی کرد که در آن‌ها کاربران یک پاسخ چت‌بات را به دیگری ترجیح می‌دادند. این پاسخ‌ها بر اساس ویژگی‌های خاصی مانند «دوستانه»، «سرگرم‌کننده» یا «صادقانه» کدگذاری شدند. ویژگی‌ای که به بهترین شکل پیش‌بینی می‌کرد که آیا یک پاسخ ترجیح داده می‌شود یا خیر، «مطابقت با باورهای کاربر» بود. درست پشت آن «معتبر» قرار داشت. مردم دوست دارند پاسخ‌های چت‌باتشان تعصباتشان را تأیید کند و دوست دارند این تأیید قطعی به نظر برسد.

نکته آخر ارزش تأکید دارد: مردم دوست دارند با چت‌بات‌های هوش مصنوعی که به آن‌ها لطف می‌کنند، تعامل داشته باشند. اگر یک شرکت فناوری در تلاش است تا کاربران بیشتری را جذب کند، باید مدل هایی تولید کند که پیش فرض های کاربرانش را تایید می‌کند.

بله، هوش مصنوعی ممکن است بسیاری از مردم از جمله کسانی که با نوشتن سر و کار دارند را بی کار کند و جایگزین آنها شود، نه تنها به این دلیل که می تواند به سرعت در اطلاعاتی که در وب وجود دارد غوطه بخورد و متنی تحویل دهد بلکه بیشتر به این دلیل که از خودش نظری ندارد و می تواند نظر کاربرانی که با آن کار می کنند را نوشخوار کند و همیشه این احساس را به آنها بدهد که آن‌ها درست می‌گویند.

اما خوب است به این فکر کنیم که اگر کسی مدام در حال تایید ما باشد واقعا چه بلایی سرمان می آید. مفسران نگران این هستند که این موضوع می‌تواند منجر به چیزی شود که برخی آن را «روان‌پریشی هوش مصنوعی» می‌نامند. روان‌پریشی به عنوان یک بیماری روانی تعریف می‌شود که شامل از دست دادن ارتباط با واقعیت است. روان‌پریشی هوش مصنوعی این ایده را منعکس می‌کند که اگر همین روال تایید مکرر توسط هوش مصنوعی ادامه پیدا کند- مکالماتی که تصورات غلط یا ایده‌های نادرست شما را به چالش نمی‌کشند - ممکن است شروع به از دست دادن ارتباط با واقعیت کنید. این امر با تمایل عمومی به برخورد با پاسخ‌های هوش مصنوعی به عنوان خلاصه‌ای دقیق و معتبر از دانش موجود تشدید می‌شود.

نمونه‌های زیادی از «روان‌پریشی هوش مصنوعی» در اخبار گزارش شده است. داستان‌های متعددی از افرادی وجود دارد که «عاشق» چت‌بات‌ها شده‌اند و بعداً با عزیزانشان درگیری‌های خشونت‌آمیزی داشته‌اند (و در یک مورد، با پلیس که منجر به کشته شدن فرد شده است)، یا اقدامات خطرناکی انجام داده‌اند (مرد مسنی در حالی که سعی داشت با یک زن جوان عشوه‌گر که توسط یک متا چت‌بات به تصویر کشیده شده بود، ملاقات کند، در یک پارکینگ لیز خورده و افتاده و بعداً بر اثر جراحت درگذشته است). برخی دیگر معتقد بودند که به پیشرفت‌های علمی دست یافته‌اند که منجر به شیدایی و توهم شده است - از جمله موردی که فرد نیاز به بستری شدن در بیمارستان روانی داشته است.

نگرانی دیگر این است که هوش مصنوعی می‌تواند به قطب‌بندی سیاسی دامن بزند. سینان اولگن، تحلیلگر فضای آنلاین از چندین چت‌بات مختلف مستقر در کشورهای مختلف استفاده کرد و دریافت که آنها بر اساس این که چه کسی در کجا از آنها سوال می کند برای مثال در مورد تقصیر حماس در جنگ اخیر در غزه نظرات کاملا متفاوتی ابراز می کنند. در یک مورد، تغییر زبان سوال از انگلیسی به چینی منجر به تغییر موضع ربات هوش مصنوعی در مورد ناتو شد. از آنجایی که رهبران بیشتر برای «پیش‌نویس اولیه» یا خلاصه سریع به هوش مصنوعی متکی هستند، این پیش بینی که آنها به زودی توسط ربات های گفتوگویی هوش مصنوعی هدایت خواهند شد چندان عجیب نیست. استفاده از هوش مصنوعی به عنوان روشی بی‌طرفانه برای خلاصه‌سازی اطلاعات، ممکن است منجر به قطبی شدن ناخواسته پاسخ ها و در نتیجه برنامه ریزی ها شود.

در آزمایش‌های معروف انطباق اجتماعی سالومون اش، او از شرکت‌کنندگان خواست تا تنها چند خط را با هم مقایسه کنند و بگویند کدام یکی بلندتر است. وقتی همان آزمایش در گروه انجام شد، آزمونی از «فشار همسالان» (یا انطباق) در اختیار دانشمندان علوم رفتاری قرار گرفت. شرکت‌کننده واقعی فقط پس از شنیدن پاسخ نادرست چندین بازیگر دیگر، پاسخ خود را ارائه می‌داد. اگر بازیگران می گفتند یکی از خط ها که در واقع همه یک اندازه بودند بلندتر است، شرکت کننده واقعی هم در نهایت تکرار می کرد که یکی از خط ها بلندتر است. پاسخی که غلط بود.

وقتی در گروه مطالعه اش تنها یک نفر اصرار می کرد که تمام خطوط یک اندازه هستند، آن وقت شرکت کنندگان هم تمایل پیدا می کردند که پاسخ درست بدهند و واقعا بگویند که تمام خطوط یک اندازه هستند. مطالعه نشان داد که تایید دیگران تا چه اندازه می تواند در تغییر نظرات افراد در مورد واقعت موثر باشد.

در دنیای هوش مصنوعی، جایی که همه یک بله قربان‌گو در جیب خود دارند، ممکن است انچه اش از ان می ترسید دوباره رخ دهد. این که یک صدا همواره شما را تایید کند و با هیچ کدام از گفته های شما مخالفت نکند، می تواند شما را در اعتقاداتان راسخ تر کند. در حالی که سطحی از عدم انطباق می‌تواند منجر به خلاقیت و نوآوری شود.

همانطور که رهبران و مدیران اغلب متوجه می‌شوند، مشکل بله قربان گوها این است که برای آنها دوستی و احساسات خوب بر حقیقت اولویت دارد. صرف زمان کافی برای تعامل با آنها، شما را از توانایی تصمیم‌گیری خوب باز می‌دارد. نقص‌های تفکر شما برطرف نمی‌شوند. استدلال‌های مخالف مهم نادیده گرفته می‌شوند. با افزایش استفاده از چت‌بات، ممکن است به سمت فروپاشی فروتنی - و عقل سلیم - پیش برویم.


هوش مصنوعی می‌تواند حماقت انسان‌ها را پایدارتر کند

برچسب‌ها

نظر شما


مطالب پیشنهادی