گزارش گوپا؛

هوش مصنوعی و انتخابات آمریکا تهدیدی فراتر از اختلافات سیاسی

هوش مصنوعی و انتخابات آمریکا تهدیدی فراتر از اختلافات سیاسی

به گزارش گوپا، با نزدیک شدن به انتخابات ریاست جمهوری آمریکا و درحالی که توجهات به برگزاری این رویداد سیاسی معطوف شده، تهدید رو به رشد فناوری های هوش مصنوعی مولد بخصوص دیپ فیک ها، غیرقابل چشم پوشی است.



به گزارش گوپا به نقل از مهر؛ انتخابات تنها فرصتی برای دولت ها نیست تا با استفاده از ابزارهای هوش مصنوعی مولد به تخریب اعتبار سیاستمداران بپردازند، بلکه فرصتی برای مجرمان سایبری هم هست که با استفاده از این ابزارها، کلاهبرداری های مبتنی بر مهندسی اجتماعی را به شکل گسترده تر و پیچیده تری سازماندهی کنند.
با نزدیک شدن به موعد انتخابات ریاست جمهوری آمریکا و درحالی که توجهات به برگزاری این رویداد سیاسی در ماه نوامبر معطوف شده، تهدید رو به رشد فناوری های هوش مصنوعی مولد، بخصوص دیپ فیک ها، غیرقابل چشم پوشی است. تهدیدات ناشی از سوءاستفاده از فناوری های هوش مصنوعی مولد بیشتر از هر زمان دیگری توجهات را به خود جلب کرده است. انتخابات در ایالات متحده نه تنها فرصتی برای دولت ها است تا با استفاده از ابزارهای هوش مصنوعی به تخریب اعتبار سیاستمداران بپردازند، بلکه عرصه ای مناسب برای مجرمان سایبری است که به وسیله ابزارهای پیشرفته تری چون دیپ فیک ها و مدلهای زبانی بزرگ، کلاهبرداری های پیچیده تری را سازماندهی کنند. نمونه های اخیر استفاده از دیپ فیک برای شبیه سازی تصاویر یا کلیپ های صوتی و تصویری سیاستمداران در آمریکا، نگرانی ها در رابطه با نتایج بالقوه این فناوری ها برای سلامت فرآیندهای دموکراتیک را افزایش داده است.
سیاستمداران به علت جایگاه عمومی و تأثیرگذاری شان بر شهروندان، اهداف اصلی این نوع حملات هستند. افزایش توجه عمومی به کنشگران سیاسی در دوران انتخابات، این مساله را تشدید کرده و عرصه را برای بازیگران مخربی که به دنبال استفاده از این تکنولوژی ها در جهت اختلال در فرایندهای سیاسی هستند، باز می کند.
وبگاه خبری NBC News سال قبل در گزارشی اعلام نمود که ایالت میشیگان آمریکا قصد دارد، با تدوین برخی سیاست ها، استفاده از هوش مصنوعی و سایر رسانه ها در جهت فریب مخاطبان را محدود کند. طبق قانونی که انتظار می رود در ایام آینده توسط فرماندار این ایالت، گرچن ویتمر امضا شود، کمپین های انتخاباتی ایالتی و فدرالی باید استفاده از هوش مصنوعی در فرآیند تولید تبلیغات سیاسی را در میشیگان اعلام کنند. قانون مذکور، همینطور استفاده از محتوای دیپ فیک بدون نشانه گذاری شفاف را تا ۹۰ روز بعد از انتخابات هم ممنوع می باشد.
این وبگاه خبری همینطور در آن بازه زمانی اعلام نمود که ایالت های کالیفرنیا، مینه سوتا، تگزاس و واشنگتن قوانینی را تصویب کرده اند که استفاده از دیپ فیک در تبلیغات سیاسی را محدود می کند. طبق گزارش های انتشار یافته، قوانین مشابهی هم در ایلینویز، کنتاکی، نیوجرسی و نیویورک در دست بررسی قرار دارد.
به عقیده کارشناسان، دراین میان، دو دسته از مخالفان سیاسی به شکل جدی به استفاده از این ابزارهای هوش مصنوعی برای شبیه سازی سیاستمداران علاقه مند هستند: دولت ها و جناح های سیاسی خواهان تشدید بی ثباتی: هدف اصلی این گروه، تیره سازی اعتبار یک نامزد و احتمالا تغییر نتایج انتخابات به نفع خود است. مجرمان سایبری: این دسته از افراد با سوءاستفاده از اعتبار و نفوذ هدفشان، تلاش می کنند قربانیان را درگیر توطئه های مهندسی اجتماعی خود کنند و آنها را به اقداماتی ضد منافع خود، مانند سرمایه گذاری در ارزهای دیجیتال غیرمعتبر یا کمک به یک کمپین سیاسی جعلی وادار نمایند.

حمله به اعتبار افراد و جناح ها

توانایی دیپ فیک ها و مدلهای زبانی هوش مصنوعی در کاهش اعتبار سیاستمداران برای تأثیرگذاری بر نتایج انتخابات، یکی از حقیقت های تلخ عصر شبکه های اجتماعی بحساب می آید. این ابزارها قابلیت ایجاد داده های تاریخی غیرواقعی و تقویت «اخبار جعلی» را دارند. در حالیکه کمپین های اطلاعات نادرست پدیده ای جدید به شمار نمی روند اما موعد برگزاری انتخابات، بستر ویژه ای برای سازندگان و نشردهندگان اطلاعات جعلی و شایعات فراهم می آورد، چونکه رای دهندگان در این بازه های زمانی بیشتر پذیرای پیام های سیاسی هستند. در ادامه به مرور چند نمونه اخیر از این وضعیت می پردازیم.
در انتخابات ملی لهستان در سال ۲۰۲۳، بزرگ ترین حزب مخالف، یک آگهی تبلیغاتی انتخاباتی منتشر نمود که کلیپ های واقعی نخست وزیر را با کلیپ های جعلی بوجود آمده توسط هوش مصنوعی ترکیب کرده بود. در همان سال، یک کلیپ صوتی جعلی از نامزد حزب کارگر بریتانیا، کی یر استارمر، که در آن به کارمندانش ناسزا می گفت، در فضای مجازی میلیونها بازدید را به خود اختصاص داد. همچنین، در آستانه انتخابات ۲۰۲۴ آمریکا، شاهد دیپ فیک هایی از تصاویر دستگیری دونالد ترامپ بودیم.
در همه این موارد، دیپ فیک ها برای تخریب اعتبار نامزدها و کاهش محبوبیت آنها در رقابت های انتخاباتی به کار گرفته شده اند.

سوءاستفاده از انتخابات برای منافع مالی

تنها دولت ها نیستند که به انتخابات علاقه نشان می دهند؛ این رویدادها فرصتی بسیار جذاب برای مجرمان سایبری هم فراهم می کنند. تحلیل روندهای موجود در فعالیتهای سایبری در رابطه با دیپ فیک ها نشان داده است که این فناوری به چندین روش مورد بهره برداری قرار می گیرد.
استفاده از دیپ فیک در حملات سایبری هدفمند در طول سالهای اخیر بشدت افزایش پیدا کرده است. در این موارد، مجرمان سایبری از دیپ فیک ها برای تقلید قانع کننده از فردی آشنا برای قربانی استفاده می نمایند. هدف این گونه حملات به طور عمده بهره برداری مالی از راه فریب کاربران است. بر مبنای براوردهای صورت گرفته، این استراتژی در محیط های کاری و شخصی به وفور مشاهده شده است و بسیاری از فعالیتها، کلاهبرداری با جعل هویت مدیران اجرایی در ایمیل های کاری گرفته تا کلاهبرداری های ناظر بر روابط شخصی قربانیان را شامل می شود. موفقیت این نوع کلاهبرداری ها به توانایی فریب قربانیان و القای این باور استوار است که با شخص واقعی درحال ارتباط هستند؛ در حالیکه افراد در واقع با محتوای صوتی یا تصویری دست کاری شده مواجهند.
افزون بر این، کاربرد دیپ فیک ها فراتر از حملات شخصی سازی شده رفته و به کلاهبرداری های گسترده تر هم رسیده است. در طول سالهای اخیر شاهد مواردی هستیم که در آن مجرمان سایبری با جعل هویت یک شخصیت عمومی از جایگاه و تاثیر او برای ترویج طرح های مالی مشکوک استفاده می نمایند. هم اکنون، نظر می رسد که عملیات کلاهبرداری ارزهای دیجیتال به گزینه محبوبی در بین مجرمان سایبری تبدیل گشته باشد.
چنین کلاهبرداری هایی در همه ایام سال می توانند رخ دهند، اما فصل انتخابات فرصت ویژه ای برای مجرمان سایبری فراهم می آورد تا از راه دیپ فیک سیاستمداران، رای دهندگان و طرفداران آنها را هدف قرار دهند. با نزدیک شدن به انتخابات، رای دهندگان پذیرای پیام های بیشتری از جانب نامزدها هستند و این امر محیطی مناسب برای کلاهبرداری مالی بوجود می آورد.

ابزارهای هوش مصنوعی مولد

چشم انداز انتخابات با رشد پیچیدگی و دسترسی ابزارهای هوش مصنوعی درحال تغییر است؛ تغییری که مجرمان سایبری در فصل انتخابات برای حملات مهندسی اجتماعی مبتنی بر هوش مصنوعی از آن بهره برداری می کنند. ظهور ابزارهای ساده و کاربرپسند برای ایجاد دیپ فیک ها، به جای ابزارهای پیچیده تر نظیر «DeepFaceLab»، این عرصه را متحول کرده است.
هوش مصنوعی مولد به مجرمان سایبری ابزارهای پیشرفته ای عرضه می دهد تا چهره های مجازی و واقع گرایانه ای از نامزدهای سیاسی بسازند. این چهره ها می توانند رای دهندگان را فریب دهند تا به کمپین های جعلی کمک مالی کنند، در طرح های کلاهبرداری سرمایه گذاری نمایند یا در جمع آوری کمک های خیریه تقلبی مشارکت داشته باشند. رویدادهایی چون ماجرای تبلیغ کارت های «NFT» توسط دونالد ترامپ یا حمایت ایلان ماسک از ارز دیجیتال «دوج کوین»، مبین امکان پذیری چنین کلاهبرداری هایی در سطح کلان است.
با توجه به گستردگی توجه عمومی به نامزدهای انتخاباتی، مجرمان سایبری با استفاده از ابزارهای هوش مصنوعی در سناریوهای مختلف تهدید، زمین حاصلخیزی برای فعالیت خود می یابند.

مدل های زبانی بزرگ: مهندسی اجتماعی رای دهندگان در مقیاس وسیع

مدل های زبانی بزرگ (LLMs) مانند «ChatGPT» از شرکت «OpenAI» و «Llama» متعلق به شرکت «Meta» در سالهای اخیر شاهد پیشرفت های قابل توجهی از بهبود عملکرد و دسترسی گسترده تر گرفته تا کاهش نیازهای محاسباتی بوده اند.
پلتفرم «HuggingFace»، که به شکل عمومی میزبان مدلهای هوش مصنوعی متن باز است، هم اکنون بیشتر از یک میلیون مدل هوش مصنوعی همچون ۳۲ هزار مدل زبانی متن باز را در خود جای داده است. این مدلها که برای نیازهای مختلفی همچون زبان های خارجی، تولید متن و چت بات ها به کار می روند، به روی همه کاربران، همچون مجرمان سایبری باز هستند.

جرایم دیجیتال و بهره برداری از مدلهای زبانی برای فعالیتهای غیرقانونی

در دنیای جرایم دیجیتال، خدمات مدلهای زبانی بزرگ به صورت فزاینده ای برای فعالیتهای غیرقانونی مورد استفاده قرار می گیرند. رواج این خدمات تهدیدی بالقوه برای رای دهندگان ایجاد می کند، چونکه مجرمان می توانند از این مدلها برای طراحی کلاهبرداری های پیچیده بهره ببرند.
نخستین گام در طراحی کلاهبرداری های انتخاباتی شناسایی گروههای ذی نفع مناسب به حساب می آید. از آنجائیکه رای دهندگان بشکلی فزاینده ای به دو دسته تقسیم شده اند، مجرمان تلاش می کنند تا از این شکاف اجتماعی بهره برداری کنند. در این فرایند، مدلهای زبانی بزرگ به اشکال گوناگونی مورد استفاده فرار می گیرند. مدلهای مبتنی بر هوش مصنوعی مولد می توانند با تحلیل پروفایل های شبکه های اجتماعی، اشخاصی با علایق خاص را شناسایی کنند. مدلهای زبانی بزرگ قادرند با بررسی اطلاعات عمومی، تمایلات و ترجیحات سیاسی افراد را بر مبنای فعالیتهای آنها در شبکه های اجتماعی استنتاج نمایند. این مدلها همینطور می توانند در تشکیل گروههای ذی نفع در شبکه های اجتماعی مؤثر باشند. بعنوان مثال، یک مجرم سایبری می تواند یک گروه فیسبوک با عنوان «نامزد X برای ریاست جمهوری - شاخه فلوریدا» بوجود آورده و با انتشار پست های بحث برانگیز، قربانیان احتمالی خویش را جذب نماید.
مجرم امکان دارد برای موفقیت یک کلاهبرداری به شبکه ای از پلت فرم های جعلی نیاز داشته باشد تا از راه آنها به تبلیغ سیاست های دروغین، پیام های جعلی از یک نامزد یا جمع آوری کمک های مالی بپردازد. این پلت فرم ها به تقویت روایتهای گمراه کننده کمک می کنند. مدلهای زبانی بزرگ می توانند به سرعت این سایت ها را بسازند و حتی از منابع شبیه به سایت های رسمی کمپین های انتخاباتی بهره بگیرند. علاوه بر این، مدلهای زبانی بزرگ می توانند با بهینه سازی موتورهای جستجو، جایگاه این سایت های جعلی را در نتایج ارتقا دهند و مشروعیت ظاهری آنها را تقویت نمایند.

پیام های شخصی سازی شده برای تأثیرگذاری بیشتر

بسیاری از رای دهندگان به دریافت ایمیل های عمومی از جانب نامزدها که اغلب بدون هیچ گونه شخصی سازی به همه رای دهندگان ارسال می شوند، عادت دارند اما مجرمان حرفه ای می توانند پیام های فیشینگ را بگونه ای تنظیم کنند که بطور دقیق تر برای هر قربانی مناسب و شخصی باشد. هدف گیری قربانیان در گروههای خاص، امکان ارسال پیام های دقیق تر را فراهم می آورد، چونکه موضوعات در مقطع برگزاری انتخابات معمولا مشترک هستند. ابزارهایی مانند «ChatGPT» می توانند با ترکیب علایق رای دهندگان، پیام جعلی و عناصر فعالیتهای اجتماعی آنها در شبکه های اجتماعی، متن هایی بسیار دقیق و هدفمند تولید کنند. این توانایی می تواند در مقیاس وسیع و حتی به زبان های مختلف صورت پذیرد و محتوا برای ایمیل های فیشینگ یا اسکریپت های ویدیوهای دیپ فیک تهیه گردد.
چه باید کرد؟
با ذکر همه مواردی که در این نوشتار یاد شده قرار گرفت، پرسشی عمیق در ذهن شکل می گیرد. آیا امکان دارد که رای دهندگان بتوانند حقیقت را از دروغ تشخیص دهند؟
وبگاه گاردین در گزارشی به تاریخ فوریه ۲۰۲۴ در رابطه با انتخابات آمریکا، اعلام نمود که شرکت «Midjourney»، سازنده پلت فرم مشهور هوش مصنوعی تبدیل متن به عکس، قصد دارد استفاده از نرم افزار خود برای ساختن تصاویر سیاسی جو بایدن و دونالد ترامپ را ممنوع کند. این رسانه بریتانیایی همینطور اذعان داشت که این اقدام، بخشی از تلاشی شرکت مذکور برای پیشگیری از انتشار اطلاعات نادرست در بحبوحه انتخابات ریاست جمهوری ۲۰۲۴ آمریکا به حساب می آید.
یکی از ابتکارات برای کاهش صدمه های احتمالی یک دیپ فیک، نشانه گذاری تصاویر مبتنی بر هوش مصنوعی است. این نوع از برچسب گذاری به افراد اجازه می دهد که خالق تصویر، تغییرات اعمال شده و منبع آنها را شناسایی نموده و به این ترتیب، دیپ فیک ها را تشخیص دهند. دراین میان، خبر امیدوارکننده اینست که بازیگران بزرگ فناوری مانند «OpenAI»، متا، گوگل و آمازون پیش از این بارها آمادگی خود برای مشارکت در چنین طرح هایی را اعلام نموده اند.
علاوه بر این، شرکت «Trend Micro» اخیراً یک اپلیکیشن مجانی به نام «Trend Micro Deepfake Inspector» عرضه کرده است که مخصوص تشخیص تماسهای ویدئویی دیپ فیک طراحی شده و می تواند مکالمات جعلی را در لحظه شناسایی کند. این ابزار می تواند به شناسایی مؤثر محتوای جعلی صوتی مبتنی بر هوش مصنوعی منجر شود.
به زعم خیلی از کارشناسان، در آینده همینطور امکان دارد شاهد تعهداتی از جانب سیاستمداران باشیم که از شبکه های اجتماعی برای درخواست کمک مالی یا تبلیغات سرمایه گذاری استفاده نکنند. با این وجود، این تعهدات به صورت کامل تهدید دیپ فیک های مجرمانه را از بین نمی برد، چون که افراد به شکل طبیعی تمایل به اعتماد دارند.
سخن پایانی
همان طور که پیشتر و بارها در گزارش های مختلف به آثار مخرب دیپ فیک ها اشاره شده، نمی توان از تأثیرات سیاسی فزاینده این ابزار در ایجاد اختلال در فرآیند انتخابات چشم پوشی کرد. امری که می تواند طی سالهای آینده ورای انتخابات آمریکا، در هر نقطه دیگری جهان هم رقم بخورد.
از سوی دیگر، پیشرفت های هوش مصنوعی ابزارهای پیشرفته ای را در اختیار مجرمان سایبری قرار می دهد تا اهداف خویش را شناسایی، آنها را دست کاری و بشکلی قانع کننده چهره های عمومی معتبر را برای اجرای کلاهبرداری ها جعل کنند. پیچیدگی و مقرون به صرفه بودن روز افزون این ابزارهای آماده به کار نشان داده است که احتمالا استفاده از آنها برای بهره برداری مالی از فصل انتخابات افزایش خواهد یافت.
بنابراین، این مورد از اهمیت بسیاری برای مصرف کنندگان و رای دهندگان برخوردار می باشد. پیچیدگی این تهدیدات و تاثیر احتمالی آن بر رای دهندگان، اهمیت آگاهی و احتیاط در این عرصه را دوچندان می کند. حتی اگر برخی بازیگران به دنبال اختلال در نتایج انتخابات باشند، سایر مجرمان سایبری امکان دارد تنها به دنبال فریب قربانیان باشند.

1403/08/14
09:43:08
5.0 / 5
89
تگهای خبر: News , آینده , تكنولوژی , تولید
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۴
گوپا