🔆 چرا ترکیب اخبار جعلی و هوش مصنوعی خطرناک است؟
🔺ما در زمانی زندگی میکنیم که متأسفانه به طور فزاینده همه چیز آن چیزی نیست که به نظر می رسد یا آنچه که باید باشد.
از زمان شکلگیری مفهوم اخبار جعلی، فناوری به سرعت پیشرفت کرده است. در نتیجه، ما اکنون با نمونههایی از اخبار جعلی روبرو هستیم که چند ماه پیش اصلا قابل تصور نبودند. ویدئوهای دیپ فیک یکی از معضلات ترکیب هوش مصنوعی با اخبار جعلی است.
🔺#دیپ_فیک یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد. دیپ فیک فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
هر شخصی با استفاده از هوش مصنوعی میتواند یک دیپ فیک بسازد و برای این کار نیازی نیست که اصلاً شخص مورد نظر جملهای را ادا یا در مکان خاصی حضور پیدا کند.
🔺مورد خطرناک دیگر رباتهای دارای #هوش_مصنوعی هستند که می توانند حقیقت را مخدوش و محتوای دروغین را جای آن، جا بزنند. وقتی این رباتها هوشمندتر شوند، میتوانند با استفاده از دادههای موجود در دسترس عموم، صدا و دستخط هرکسی را تقلید کنند.
🔺#اخبار_جعلی عادی، به خودی خود خطرناک است؛ حال ترکیب آن با هوش مصنوعی، آن را به مراتب خطرناکتر خواهد کرد. تشخیص تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر میشود.
⭕️دلایل زیادی برای خطرناک بودن اخبار جعلی مجهز به هوش مصنوعی وجود دارد؛ اما برجستهترین آنها از نظر عضو هیئتعلمی مؤسسه تحقیقات بلاکچین کانادا به شرح زیر است:
🔻اطلاعات و اخبار معتبر برای اداره جامعه بسیار مهم است. انسانها باید در مورد عملکرد خودشان مسئول باشند؛ اما اگر از وقوع این اقدامات توسط افراد اطمینان نداشته باشیم و نتوانیم تشخیص دهیم جعل کدام است و واقعیت کدام؛ انجام این امر بسیار مشکل خواهد بود.
🔻اخبار جعلی مجهز به هوش مصنوعی نه تنها تهدیدی برای دموکراسی است، بلکه بازارهای مالی را نیز تهدید میکند. چراکه به راحتی با انتشار اخبار جعلی درباره شرکتها و همچنین روند قیمتها، بر بازار سهام و قیمتها تاثیر میگذارد.
🔻مهمترین عامل «بیحسی نسبت به واقعیت» است که بر این اساس، مردم دیگر خسته شده و به اخبار هیچتوجهی نمیکنند؛ چراکه میدانند به هرحال بیشتر این اخبار، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود.
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
مجموعه فرهنگی رسانه ای
بدر(بصیرت در رسانه)👇
🔹گروه
https://eitaa.com/joinchat/1082589243C010f2f6f64
🔹بایگانی نشستها
@savad_k
🔹کانال(ایتا و شاد)
@savad_r
📛 شایعه 📛
اینجا سوئد و سوئیس نیست تصویر خرمشهر قبل از انقلاب است!
❇️ واقعیت ❇️
🆔 @wiki_shobhe
❌ یک کاربر توییتری سلطنت طلب عکسی از خرمشهر را منتشر کرده که مدعی شده این تصویر مربوط به دوران #پهلوی است.
✅ اما با کمی دقت تابلو بانک ملت با لوگو جدید را مشاهد میکنید. نکته جالب اینجاست همین توییت توسط ۲ هزار کاربر لایک و بیش از ۳۰۰ بار بازنشر میشود.
🔺پینوشت: انتشار این تصاویر در این ایام و اعتراضات خوزستان بیشتر با هدف تهیج کاربران است./دکتر موسوی
#اخبار_جعلی #سواد_رسانه
🆔 @wiki_shobhe
☆○═════════┅
📲 کانال ✅ ویکیشبهه ✅ در ایتا👇
https://eitaa.com/Wiki_Shobhe
18.04M حجم رسانه بالاست
مشاهده در ایتا
📌بازنشر اخبار جعلی با سرعت نور
🔸از ویژگیهای رسانههای نوین سرعت انتشار خبر است. جالب است بدانید اخبار جعلی چند برابر سریعتر از اخبار رسمی و معتبر در شبکههای اجتماعی منتشر میشوند. شما در مواجهه با این اخبار چه واکنشی نشان میدهید؟ آیا آنها را بلافاصله بازنشر میکنید؟ چگونه میتوانید اطمینان پیدا کنید پیامی که دریافت کردهاید معتبراست؟ این ویدئو به شما کمک میکند تا از صحت اخبار اطمینان حاصل کنید.
#فضای_مجازی
#سواد_رسانه_ای
#شبکه_های_اجتماعی
#اخبار_جعلی
•┈•••✾•🌾🌼🌾•✾••┈•
📲گروه
https://eitaa.com/joinchat/1082589243C010f2f6f64
📲کانال
http://eitaa.com/joinchat/2011496448C2b00395a53