باوری که ما به گرمبودن هوای امروز داریم نسبی است، یعنی در نسبت با دمای هوای روزهای گذشته شکل میگیرد. به همین خاطر اگر دمای هوا در هفتهی گذشته بیش از ۱۰ درجه میبود، من و همسایهام باور داشتیم که «امروز هوا سرد است».
بسیاری از باورهای روزمره ما، شاید هم همهی آنها، با همین قاعده شکل میگیرند. تجزیه و تحلیل و استدلال و استنباط از این باورها، باورهای دیگر را هم شکل میدهد و این سلسله ادامه دارد. بسیار هم اتفاق میافتد که در مسیر تجزیه و تحلیل دچار اشتباه میشویم. شبکهی باور روزانهی ما، حتی از حالات عاطفی و احساسی ما هم اثر میگیرد. خلاصهاش این است که بسیاری از باورهای روزانهی ما مستقیما تحت تأثیر محیطی قرار دارد که در آن زندگی میکنیم و یا خود را در معرض آن قرار میدهیم. به همین خاطر وقتی من از سردی هوا یا بلندقدی همسرم یا فقیربودن و یا خشم دوستم برای فردی صحبت میکنم که در محیط و جغرافیای دیگری زندگی میکند، ممکن است او منظورم را کاملا نادرست دریابد.
پروپاگاندای رایانشی، از همین قاعده ساده بهره میگیرد و محیط را بهنوعی برای مخاطب خود تغییر میدهد که شبکهی باور او تغییر کند و توان تشخیص درستی و نادرستی اتفاقهایی را که در محیط واقعی میافتد از دست میدهد. پروپاگاندای رایانشی مفهومی پیچیدهتر و هوشمندتر از پروپاگاندای مرسوم و سنتی است، به همینخاطر در بسیاری از مواقع درک و توضیحِ رفتار و تاثیر آن کار بسیار سختی است. اگر در پروپاگاندا با مجموعهای از اطلاعات هدفدار، هماهنگ، بزرگنمایی شده و یا جعلی روبرو هستیم، در پروپاگاندای رایانشی با الگوریتمها و رباتهایی روبروییم که دادهمحوراند و میدانند بهنحوی و با سرعتی شبکهی باور مخاطب را تغییر دهند که امکان مقابله با پروپاگاندا را هم از دست بدهد. گوشهای از این پیچیدگی و هوشمندی را با یک مثال میکوشم نشان دهم.
همهی ما تجربه مرور و بالا-پایینکردن شبکههای اجتماعی را داریم. الگوریتم و هوش مصنوعی ناشی از این شبکههای اجتماعی بهنحوی است که بهتدریج میداند که ما در چه محیطی زندگی میکنیم و به چه موضوعاتی علاقهمندیم و حتی چگونه فکر میکنیم. یعنی این شبکههای اجتماعی نهتنها دادههای مورد علاقهی ما بلکه منظومهی باور ما را نیز حدس میزنند و بر اساس آن سعی میکنند پستهایی را برای ما نمایش دهند که مطلوبمان است. مثلا اگر من زمان بیشتری را برای دیدن یک تصویر یا خواندنِ یک متن سپری میکنم و یا برای فلان عکس یا فلان محتوا کامنت گذاشتهام یا آن را لایک کردهام، بخشی از علاقهمندیهای من برای هوش مصنوعی آن شبکهی اجتماعی آشکار شده است. شناختِ این هوش مصنوعی از من روز بهروز چنان پیشرفت میکند که محتوای کامنتهای انتقادی و موافق و مخالف را هم در مییابد، یعنی که نه تنها میفهمد که من به چه دادههایی علاقهمندم بلکه میفهمد چگونه فکر میکنم و نظرم نسبت به موضوعات مورد علاقهام چیست.
اینجاست که ماشین پروپاگاندای رایانشی میتواند وارد شود. این ماشین تعدادی از آدمها را در قالب هویتهای واقعی و غیر واقعی(ترولها) به خدمت میگیرد تا با تولید و تبلیغ محتوا در شبکههای اجتماعی پروپاگاندای مورد نظر خود را راه بیاندازد. سپس با استفاده از الگوریتمها و رباتهای تکثیر و تولید محتوا (باتها) پروپاگاندای مورد نظر خود را در شبکههای اجتماعی پرتعداد نشان میدهد و با بهرهگیری از هوش مصنوعیِ شبکههای اجتماعی، کاربران را هدف قرار میدهد و باورهای آنها را دستکاری میکند و این دستکاری گاه چنان هوشمند و طبیعی انجام میشود که قربانیان خود نیز بخشی از پروپاگاندای رایانشی میشوند. مثلا ممکن است فردی که تا دیروز یک فعال محیط زیستی بود آن را ناشی از تئوری توطئه بخواند و در مقام دفاع از خود بگویید که این تغییر تنها محصول فکر کردن و مطالعات شخصی خودش بوده. در مسیر پروپاگاندای رایانشی بسیار اتفاق میافتد که کاربر شبکهی اجتماعی پستها و مطالبی را هر روز در تایملاین خود میبیند که به دیدن آنها تمایل داشته، یا مطالب کسانی را بیشتر میبیند که همفکر او هستند، یا کامنتهای انتقادی ضعیفی را میبیند که از سوی یک کامنت قوی موافق رد شدهاند.
برخورداری پروپاگاندای رایانشی از هوش مصنوعی و پیشرفت روزافزون آن بهنحوی است که گاه دست و پای تفکر انتقادی را هم میبندد و نوعی از انتقاد سطحی را جایگزین آن میکند که تشخیصش تنها از عهده کارشناسان بر میآید.
مثلا فرض کنید «احمد» مخالف جمهوری اسلامی است و برای اندازی آن تلاش میکند. احمد همزمان از مخالفان سرسخت دخالت نظامی کشورهای دیگر در ایران است و بارها علیه آن در رسانهها و شبکههای اجتماعی پست و کامنت گذاشته است. بر مبنای آنچه گفته شد، هوش مصنوعیِ شبکههای اجتماعی این گرایش و تمایلات سیاسی احمد را تشخیص میدهد و موضوعاتی را بیشتر برای او نمایش میدهد و تبلیغ میکند که در همین باره است.
حالا در نظر بگیرید گروهی که موافق دخالت نظامی کشورهای خارجی در ایران هستند، یک ماشین پروپاگاندای رایانشی را به خدمت میگیرند. از آن روز احمد هم یکی از هدفهای این ماشین است. او یک روز پست فردی به اسم «رضا» را بر تایملاین خودش میبیند که او نیز مخالف سرسخت دخالت نظامی است. احمد بهصورت طبیعی نوشتههای رضا را دنبال و لایک میکند و گاهی در دفاع از او به کامنتهای منتقدان جواب میدهد. هر چه میگذرد، کامنتهای منتقدانِ رضا قویتر و پرتعدادتر و کامنتهای موافق او ضعیف و گاه احمقانه میشوند. نظر رضا و احمد را تنها ده نفر اما نظر منتقدان را هزاران نفر لایک میکنند. شبکه اجتماعی میزبان هم، اخبار و اطلاعات و تصاویر و فیلمهای تأیید شده و نشدهای را برای احمد نمایش میدهد که نظرات مخالفانش را تقویت میکند و احساسات او را به نفع مخالفان بر میانگیزد. چیزی نمیگذرد که احمد میبیند که رضا هم در پستهایش شروع به تغییر در باورهایش کرده و بهتدریج به یکی از موافقان دخالت نظامی در ایران تبدیل شده. احمد، هنوز باورش تغییر نکرده، اما دریافته که یکنفر از همراهانش کم شده و تغییر کرده. احمد همزمان کامنتهای فراوانی را از سوی کاربران متعددی در دفاع از حمله نظامی به ایران خوانده و تحت تأثیر پروپاگاندای اخبار نادرست یا یکطرفه هم قرار داشته و شاهد قانع شدن بسیاری از همفکرانش در همان کامنتها بوده. حتی یکی از کاربران هم که به او خیلی ابراز علاقه میکرد و آدم منصفی بود و چند بار هم با او چت کردهبود، به صف مخالفان رفته. حالا احمد دارد به باورهایش شک میکند و شاید هم بهزودی دچار تغییر شود و او هم یکی از مدافعان سرسخت دخالت نظامی در ایران به قصد تغییر جمهوری اسلامی باشد.
در این ماجرا «احمد» یک قربانی پروپاگاندای رایانشی است اما «رضا» و دیگر کاربرانی که او کامنتها و پستهای موافق و مخالفشان را خوانده، جملگی ربات (بات) بودهاند و شاید هم این وسط یکی دو هویت واقعی یا غیرواقعی (ترول) هم حضور داشتهاند.
این اتفاق به آسانی و در مقیاس میلیونی در شبکههای اجتماعی، برای انواع اهداف سیاسی و اقتصادی اتفاق میافتد، چنانچه برآورده میشود که یکسوم کاربران شبکه اجتماعی توییتر را رباتها تشکیل میدهند. و مهمتر آنکه این مثال، تنها یک مدل روشن برای اعمال پروپاگاندای رایانشی بود. در مدلهای پیچیدهتر ، قربانی اگرچه هیچکدام از اطلاعات پروپاگاندا را نمیپذیرد اما میپذیرد که تعداد قابل توجهی از افراد، باورهای دیگری دارند و همین موضوع او را دچار خطای شناختی میکند. یا اینکه فرد قربانی به تدریج حساسیتش را نسبت به یک موضوع مهم اجتماعی از دست میدهد و مثلا زندانی شدن یک مخالف سیاسی به یکسال برایش یک مجازات سبک و یا موفقیت قلمداد میشود. و در پیچیدهترین حالات، فردِ قربانی توانایی تشخیص میان خوب و بد را بهنفع ماشین پروپاگاندای رایانشی از دست میدهد.
در کشورهایی مانند روسیه و چین که دولتها بر گسترش اطلاعات کنترل بیشتری دارند، امکان بهرهبرداری از پروپاگاندای رایانشی بیشتر و سادهتر است و گزارشها و تحقیقاتِ تخصصی هم نشان میدهد که این دولتها در دهه گذشته بارها در داخل و خارج مرزها از آن بهره گرفتهاند تا جایی که از روسیه بهعنوان یکی از منشاء اطلاعات نادرست دیجیتال یاد میشود و برخی کشورها محدودیتهایی رسمی را بر پروپاگاندای روسی اعمال کردهاند.
ناگفته نماند که رباتها و ترولها زمانی رشد میکنند و راحتتر موفق میشوند که از طرفی کاربران شبکههای اجتماعی گشادهدستانه خود را در معرض اخبار و اطلاعات تأیید نشده قرار میدهند و از طرفی دیگر اعتماد عمومی در سطح پایینی است و رسانهها مخصوصا رسانههای جریان اصلی از اعتبار و انصاف حرفهای برخوردار نیستند و یا بهجای تقویت تکنیکها و ابزارهای تخصصی در صحتسنجی اخبار، به پلاتفرمی برای انعکاس نظرها و خبرها تبدیل میشوند و خواسته یا ناخواسته بخشی از ماشین پروپاگاندای رایانشی میشوند. بیدلیل نیست که برخی از متخصصان ارتباطات و رسانه درصدد جا انداختن این گزاره بهعنوان یک پیشفرض ذهنی هستند که «همهی خبرها نادرستاند». به عبارت کاملتر «همهی خبرها نادرستاند مگر اینکه خلاف آن اثبات شود»؛ گزارهای که برخاسته از یک تفکر انتقادی است و نشان میدهد مبنای دیگری برای اندیشیدن به اخبار در اختیار شهروندان قرار دهد؛ مبنایی انتقادی.
طاها پارسا
زیتون