🔆 چرا ترکیب اخبار جعلی و هوش مصنوعی خطرناک است؟
🔺ما در زمانی زندگی میکنیم که متأسفانه به طور فزاینده همه چیز آن چیزی نیست که به نظر می رسد یا آنچه که باید باشد.
از زمان شکلگیری مفهوم اخبار جعلی، فناوری به سرعت پیشرفت کرده است. در نتیجه، ما اکنون با نمونههایی از اخبار جعلی روبرو هستیم که چند ماه پیش اصلا قابل تصور نبودند. ویدئوهای دیپ فیک یکی از معضلات ترکیب هوش مصنوعی با اخبار جعلی است.
🔺#دیپ_فیک یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد. دیپ فیک فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
هر شخصی با استفاده از هوش مصنوعی میتواند یک دیپ فیک بسازد و برای این کار نیازی نیست که اصلاً شخص مورد نظر جملهای را ادا یا در مکان خاصی حضور پیدا کند.
🔺مورد خطرناک دیگر رباتهای دارای #هوش_مصنوعی هستند که می توانند حقیقت را مخدوش و محتوای دروغین را جای آن، جا بزنند. وقتی این رباتها هوشمندتر شوند، میتوانند با استفاده از دادههای موجود در دسترس عموم، صدا و دستخط هرکسی را تقلید کنند.
🔺#اخبار_جعلی عادی، به خودی خود خطرناک است؛ حال ترکیب آن با هوش مصنوعی، آن را به مراتب خطرناکتر خواهد کرد. تشخیص تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر میشود.
⭕️دلایل زیادی برای خطرناک بودن اخبار جعلی مجهز به هوش مصنوعی وجود دارد؛ اما برجستهترین آنها از نظر عضو هیئتعلمی مؤسسه تحقیقات بلاکچین کانادا به شرح زیر است:
🔻اطلاعات و اخبار معتبر برای اداره جامعه بسیار مهم است. انسانها باید در مورد عملکرد خودشان مسئول باشند؛ اما اگر از وقوع این اقدامات توسط افراد اطمینان نداشته باشیم و نتوانیم تشخیص دهیم جعل کدام است و واقعیت کدام؛ انجام این امر بسیار مشکل خواهد بود.
🔻اخبار جعلی مجهز به هوش مصنوعی نه تنها تهدیدی برای دموکراسی است، بلکه بازارهای مالی را نیز تهدید میکند. چراکه به راحتی با انتشار اخبار جعلی درباره شرکتها و همچنین روند قیمتها، بر بازار سهام و قیمتها تاثیر میگذارد.
🔻مهمترین عامل «بیحسی نسبت به واقعیت» است که بر این اساس، مردم دیگر خسته شده و به اخبار هیچتوجهی نمیکنند؛ چراکه میدانند به هرحال بیشتر این اخبار، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود.
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
مجموعه فرهنگی رسانه ای
بدر(بصیرت در رسانه)👇
🔹گروه
https://eitaa.com/joinchat/1082589243C010f2f6f64
🔹بایگانی نشستها
@savad_k
🔹کانال(ایتا و شاد)
@savad_r