4_5780922214006130454.pdf
حجم:
2.36M
🔺 هفت روش برای تشخیص #خبر_جعلی
▫️ کمیک استریپ یا همان داستان مصور تشخیص خبر جعلی ویژه کاربران رسانه های اجتماعی
#اخبار_جعلی
•┈┈••••✾•🌿🌺🌿•✾•••┈┈• سواد رسانه ای نیاز هر ایرانی دوستان خود را دعوت نمایید👇
http://eitaa.com/joinchat/2011496448C2b00395a53
«#فیکنیوز» چیست؟
#خبرهای_جعلی بهظاهر خبر هستند اما به شیوهای سیستمی فریبآمیز و گمراهکننده اند طوری که همیشه نمیتوان بهآسانی فریبآمیز و گمراهکننده بودنشان را تشخیص داد.
برخلافِ انواع و اقسام #مزخرفگویی و #یاوهسرایی که با هیچ نگرانی برای صحت و درستی همراه نیستند، این طور نیست که هیچ قید و بندی از جهت صحت و درستی بر #اخبار_جعلی نباشد بلکه اخبار جعلی به حقیقت اهمیت میدهند فقط تا آن اندازه که بتوانند ما را از آن منحرف کنند و بر باورها و کنشهای ما تأثیر بگذارند.
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
سواد رسانه ای نیاز هر ایرانی
دوستان خود را دعوت نمایید👇
http://eitaa.com/joinchat/2011496448C2b00395a53
🚫 ماجرای جاسازی قرصهای مشکوک در کیک های خوراکی
#واقعیت در اطلاع رسانی
#اطلاعات_گمراه_کننده می تواند افکاردعمومی را منحرف کند
✍️حدود 10 روز پیش گزارشهایی به مسئولان سلامت آموزش و پرورش منعکس شد مبنی بر اینکه در بستههای کوچک کیک که دانشآموزان برای تغذیه میان وعده به مدرسه آورده بودند و شاید هم از بوفه مدارس خریداری کرده بودند، قرص مشاهده شده است.
🔸این پست همراه تعدادی تصاویر در فضای مجازی چند روز است می چرخد و حرف و حدیت های فراوانی بوجوداورده است ؛
به تمام مدارس بخشنامه شده تیتاب، تاینی، مینو،شیرین عسل،پچ پچ قرص توش بوده و پلیس فتا گفته بشدت داریم پیگیری میکنیم توی این کارخونه ها نفوذی دارن و قرص ها هم قرص بیهوشی و قرص برنج هست ظاهرا
لطفا اصلا استفاده نشه
👈ماجرا چیست؟
در پیامهای منتشره در فضای مجازی آمده است که به تمام مدارس بخشنامه شده از این کیکها که آلوده به قرصهای خطرناک هستند استفاده نشود که این موضوع توسط وزارت آموزشوپرورش تکذیب شد. اما در استان سیستان و بلوچستان و استان هرمزگان، موضوع منجر به جمع آوری برخی محصولات برای بررسی موضوع شده است.
👈مسئولان چه می گویند ؟
🔹 ۲۰ آذر ۹۸ | تمامی کیکهای مشکوک با پیشنهاد دادستان چابهار از سراسر این شهرستان جمعآوری شدند؛ پرونده قضایی تشکیل شد تا واقعیت ماجرا محرز شود
🔹 ۲۱ آذر ۹۸ | سخنگوی سازمان غذا و دارو: موضوع مربوط به خط تولید نیست و طبق بررسیهای صورت گرفته از گزارشات مردمی در دو استان سیستان بلوچستان و هرمزگان، مشخص شد، این قرصها پس از تولید و در مرحله عرضه، داخل کیکها گذاشته شدهاند؛ مردم میتوانند موارد مشابه را به سامانه تلفنی ۱۹۰ گزارش دهند|ایسنا
🔹۲۱ آذر ۹۸ | رئیس مرکز روابط عمومی وزارت بهداشت طبق گزارشاتی که به دست ما رسیده است و بررسیهایی که از شرکتهای صنایع غذایی در این استانها داشتهایم، این قرصها به هیچ عنوان هنگام پروسه تولید درون کیکها گذاشته نشده است|تسنیم
🔹 طی مشاهدات موجود این کار مشکوک و با انگیزه و هدفی نامعلوم توسط فرد یا افرادی در سطح عرضه در استانهای سیستان و بلوچستان و هرمزگان صورت گرفته است. تمام مباحثی که در حوزه اختیارات و بازرسیهای سازمان غذا و دارو و وزارت بهداشت است در حال انجام بوده اما، بررسی سایر عوامل نظیر قصد و نیت انجام این کار در حوزه صلاحیت و اختیارات وزارت بهداشت نیست و مراجع انتظامی و امنیتی باید موضوع را بررسی کنند
🔹 برخلاف ادعاهای موجود مبنی بر اینکه قرصهایی که در کیکهای خوراکی گذاشته شده است، از نوع روانگردانها و مخدرها بوده، بررسیهای ما این موضوع را نشان نمیدهد و این قرصها انواع گوناگونی داشته است.
بررسیهای صورت گرفته از ۳۰ مورد گزارش شده از استان هرمزگان نشان میدهد که موضوع مربوط به خط تولید نیست. مردم هم میتوانند موارد مشابه را به سامانه تلفنی ۱۹۰ گزارش دهند و با معرفی محل عرضه کیک خوراکی ما را در بررسی بیشتر واقعه یاری کنند.
#اخبار_جعلی
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
سواد رسانه ای نیاز هر ایرانی
دوستان خود را دعوت نمایید👇
http://eitaa.com/joinchat/2011496448C2b00395a53
10.76M حجم رسانه بالاست
مشاهده در ایتا
🔵 هر گردی گردو نیست!
▫️ فضای مجازی پر شده از اخبار جعلی و دروغ که با اهداف مختلف تولید شدهاند.
▫️ اهداف این اخبار گاه دزدیدن اعتقاد یا باورهای ما نسبت به برخی اشخاص یا موضوعات است و گاه دزدیدن پولهایمان.
▫️ ما چارهای جز آموختن تکنیکهای کشف اخبار جعلی نداریم.
#تفکر_انتقادی
#شایعه
#اخبار_جعلی
#دزدی_اینترنتی
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
سواد رسانه ای نیاز هر ایرانی
دوستان خود را دعوت نمایید👇
http://eitaa.com/joinchat/2011496448C2b00395a53
⭕️ راههای تقویت بنیه و قوت انقلاب اسلامی در فضای مجازی
💠 رهبر فرزانه انقلاب اسلامی در سخنرانی نوروزی شان به حاکم شدن فضای مجازی بر زندگی مردم اشاره کردند و فرمودند که قوت در این زمینه برای ما حیاتی است.
🔹معظم له در بیانیه گام دوم انقلاب نیز دستور به شکستن محاصره تبلیغاتی دشمن و مقابله با فضای یاس و ترویج امید آفرینی داده بودند.
🔺اما از همه مهمتر اگر بخواهیم به قوت پیدا کردن کشور در فضای مجازی بپردازیم باید به دستورات بر زمین مانده ایشان اشاره کنیم و آنها راه اندازی شبکه ملی اطلاعات و تقویت سرویس ها و خدمات بومی به عنوان زیر ساخت های حیاتی در کشور است.
🔹از نگاه فنی، عقلی و تجربی هم اگر به بسیاری از کشورهای پیشرفته غربی نگاه کنیم ابتدا به استقلال در زیر ساخت از زمان پیدایش فضای مجازی اقدام کرده اند و همزمان به افزایش سواد رسانه ای متناسب با این فضا اقدام کرده اند.
🔸غرب در کنار سواد رسانه به تصویب قوانین بسیار سختگیرانه، در حوزه حریم خصوصی، حفاظت از اطلاعات فردی و ملی، تجارت الکترونیک و ... هم پرداخته اند
🔺سپس همان کشورهای پیشرفته برای حفظ حکمرانی و قوت در سطح جامعه خود، در حوزه حکمرانی سایبری نیز ورود کرده و سند آنرا تدوین کرده اند که در موضوع کرونا ویروس به خوبی مشهود است.
اما از مهمترین نتایج استقلال در زیرساخت، تدوین سند حکمرانی سایبری-رسانه ای مقابله هوشمندانه با #جنگ_شناختی_ادراکی_ترکیبی است که از مهمترین تسلیحات آن #اخبار_جعلی است.
🔹و نکته مهم آنجاست که #فیک_نیوز ها آنقدر قوی هستند که می توانند حکمرانی کشور ها را مختل کرده و حتی موجب اشغال سایبری رسانه ای آن کشور شوند.
🌀پس گام نخست در قوت پیدا کردن در این فضا استقلال در زیرساخت، سرویس ها و خدمات است و گام دوم تدوین سند حکمرانی سایبری-رسانه ای ...
این گام ها میتواند انقلاب اسلامی را از سطح پدافند در فضای مجازی به سطح آفند برده و دشمنان و جریان نفوذ را به شکست بکشاند ان شاء الله...
✍ سید علیرضا آل داود
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
سواد رسانه ای نیاز هر ایرانی
دوستان خود را دعوت نمایید👇
http://eitaa.com/joinchat/2011496448C2b00395a53
🔆 چرا ترکیب اخبار جعلی و هوش مصنوعی خطرناک است؟
🔺ما در زمانی زندگی میکنیم که متأسفانه به طور فزاینده همه چیز آن چیزی نیست که به نظر می رسد یا آنچه که باید باشد.
از زمان شکلگیری مفهوم اخبار جعلی، فناوری به سرعت پیشرفت کرده است. در نتیجه، ما اکنون با نمونههایی از اخبار جعلی روبرو هستیم که چند ماه پیش اصلا قابل تصور نبودند. ویدئوهای دیپ فیک یکی از معضلات ترکیب هوش مصنوعی با اخبار جعلی است.
🔺#دیپ_فیک یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد. دیپ فیک فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
هر شخصی با استفاده از هوش مصنوعی میتواند یک دیپ فیک بسازد و برای این کار نیازی نیست که اصلاً شخص مورد نظر جملهای را ادا یا در مکان خاصی حضور پیدا کند.
🔺مورد خطرناک دیگر رباتهای دارای #هوش_مصنوعی هستند که می توانند حقیقت را مخدوش و محتوای دروغین را جای آن، جا بزنند. وقتی این رباتها هوشمندتر شوند، میتوانند با استفاده از دادههای موجود در دسترس عموم، صدا و دستخط هرکسی را تقلید کنند.
🔺#اخبار_جعلی عادی، به خودی خود خطرناک است؛ حال ترکیب آن با هوش مصنوعی، آن را به مراتب خطرناکتر خواهد کرد. تشخیص تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر میشود.
⭕️دلایل زیادی برای خطرناک بودن اخبار جعلی مجهز به هوش مصنوعی وجود دارد؛ اما برجستهترین آنها از نظر عضو هیئتعلمی مؤسسه تحقیقات بلاکچین کانادا به شرح زیر است:
🔻اطلاعات و اخبار معتبر برای اداره جامعه بسیار مهم است. انسانها باید در مورد عملکرد خودشان مسئول باشند؛ اما اگر از وقوع این اقدامات توسط افراد اطمینان نداشته باشیم و نتوانیم تشخیص دهیم جعل کدام است و واقعیت کدام؛ انجام این امر بسیار مشکل خواهد بود.
🔻اخبار جعلی مجهز به هوش مصنوعی نه تنها تهدیدی برای دموکراسی است، بلکه بازارهای مالی را نیز تهدید میکند. چراکه به راحتی با انتشار اخبار جعلی درباره شرکتها و همچنین روند قیمتها، بر بازار سهام و قیمتها تاثیر میگذارد.
🔻مهمترین عامل «بیحسی نسبت به واقعیت» است که بر این اساس، مردم دیگر خسته شده و به اخبار هیچتوجهی نمیکنند؛ چراکه میدانند به هرحال بیشتر این اخبار، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود.
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
مجموعه فرهنگی رسانه ای
بدر(بصیرت در رسانه)👇
🔹گروه
https://eitaa.com/joinchat/1082589243C010f2f6f64
🔹بایگانی نشستها
@savad_k
🔹کانال(ایتا و شاد)
@savad_r