eitaa logo
آموزش‌ های ستار محمدی
73 دنبال‌کننده
1.6هزار عکس
1.4هزار ویدیو
6 فایل
مسائل آموزشی،معرفی پیج های جهاد تبیین، سایتهای آموزشی تبیین،معرفی فعالان رسانه، بسیجیان، فرهنگیان، جهادگران تبيين، مردم و مسئولین تمام آنچه شما نیاز دارید ادمین @iran3d360
مشاهده در ایتا
دانلود
هدایت شده از آمل نگار
تا حالا به این فکر کردید که با وجود گسترش شبکه‌های اجتماعی و سهولت دسترسی به اینترنت، امکان اینکه به مردم خبر نادرست و دستکاری شده برسه چقدره؟ تقریباً بیش از ۶۰ درصد از مردم کشورهای مختلف معتقدند اطلاعاتی که به اونها میرسه درست نیست! بنظرتون این درصد در ایران چقدره؟ 🌸کانال سرباز رسانه👇 @sarbaz_rasaneh 🌺 ( گروه جهاد فرهنگی در قالب جهاد تبيين شمال کشور) 👇 https://splus.ir/joingroup/CkDft9ZbuqlPnUKvMI24caAi 👇 https://eitaa.com/joinchat/627572932C748f729db1
هدایت شده از خانم تحلیل گر
🔺صبح امروز خبر انهدام کانون شورشی و ضد امنیتی توسط پاسداران گمنام امام زمان اطلاعات سپاه آمل را فرماندهی سپاه آمل خبر دادند. چند ساعت بعد در تویتر، توییت هایی در مورد این خبر زده شد، یکی از توییت ها رو بررسی می کنیم: 🔹ته کد دادن نگاه!!! بازداشت شماری از شهروندان در آمل!!!!!!!!!!!!! 1:دستگیری ننوشته جاش نوشته بازداشت یعنی ممکنه بدون ارتکاب جرم الکی گرفته باشنشون! 2: به جای استفاده از کلمه کانون که اکثریت نشون میده نوشته شماری که بیانگر حداقل باشه 3:استفاده از کلمه شهروندان که بحث حقوق شهروندی و... بیارن جلو و مظلوم نمایی کنند!!! 4:حالا کلمه بازداشت در کنار کلمه اتهام معنا پیدا میکنه یعنی الکی اومدن ریختن گرفتن بردن اتهام زدن!!!! اصلا حرفی از کارهای ضد امنیت ملی و شورش زده نمیشه تا ذهن مخاطب کاملا گمراه بشه!!! و از همه مهم تر اینقدر عجله داشته در واکنش نشون دادن و توییت زدن که هشتگ حقوق بشر رو هم کامل نزده!!!! 🔺دقیقا رسانه با بازی با کلمات اون چیزی که دوست داره رو به خورد من و شما میده نه واقعیت رو! @ghazaleh_shabani
هدایت شده از خانم تحلیل گر
هوش مصنوعی! یه آهنگ جدید از «دِرِیک» و «ویکند» منتشر شده که کلی هم ویرال شده روز بعد این دو تا خواننده اومدن گفتن ما همچین آهنگی نخوندیم. بعد متوجه شدن یکی با هوش مصنوعی صداشون رو کپی کرده و باهاش آهنگ ساخته.! در آینده نه به تصاویر، ویدئو و صداها نمی شود اعتماد کرد زیرا همه اینها را با هر سناریوی توسط هوش مصنوعی می توان ساخت... @ghazaleh_shabani
هدایت شده از خانم تحلیل گر
🔰شش راهکار برای تشخیص تصاویر جعلی هوش مصنوعی 🔺ابزار‌های هوش مصنوعی نیز مرتکب اشتباه می‌شوند حتی اگر به سرعت در حال تکامل باشند. در حال حاضر (آوریل ۲۰۲۳ میلادی) برنامه‌هایی مانند Midjourney، Dall-E و Deep AI دارای اشکالاتی هستند به خصوص با تصاویری که افراد را نشان می‌دهند. ۱-بزرگنمایی کرده و با دقت نگاه کنید بسیاری از تصاویر تولید شده توسط هوش مصنوعی در نگاه اول واقعی به نظر می‌رسند. به همین دلیل اولین پیشنهاد ما این است که به تصویر دقت کنید. برای انجام این کار تصویر را با بالاترین وضوح ممکن جستجو کنید و سپس روی جزئیات زوم کنید. بزرگ کردن تصویر ناهماهنگی‌ها و خطا‌هایی را نشان می‌دهد که ممکن است در نگاه اول شناسایی نشده باشند. ۲-منبع تصویر را پیدا کنید اگر مطمئن نیستید که یک تصویر واقعی می‌باشد یا توسط هوش مصنوعی تولید شده سعی کنید منبع آن را پیدا کنید. ممکن است یک جستجوی عکس معکوس انجام دهید. برای انجام این کار تصویر را در ابزار‌هایی مانند Google Image Reverse Search، TinEye یا Yandex آپلود کنید و ممکن است منبع اصلی تصویر را پیدا کنید. ۳-به تناسب بدن توجه کنید آیا افراد تصویر شده دارای تناسب اندام صحیحی هستند؟  ممکن است دست‌ها خیلی کوچک یا انگشتان خیلی بلند باشند یا آن که سر و پا با بقیه بدن مطابقت ندارند. ۴-مراقب خطا‌های معمول هوش مصنوعی باشید دست‌ها در حال حاضر منبع اصلی خطا‌ها در برنامه‌های تصویر هوش مصنوعی هستند. سایر خطا‌های رایج در تصاویر تولید شده توسط هوش مصنوعی شامل افرادی با دندان‌های بسیار زیاد هستند. هم چنین، فریم عینک‌هایی که به طرز عجیبی تغییر شکل پیدا کرده اند که در تصاویر ایجاد شده توسط هوش مصنوعی دیده می‌شوند. هم چنین، در بسیاری از این تصاویر گوش‌ها اشکال غیر واقعی دارند ۵-آیا تصویر مصنوعی و صاف به نظر می‌رسند؟ بسیاری از تصاویر نیز دارای ظاهری هنرمندانه، براق و پر زرق و برق هستند که حتی عکاسان حرفه‌ای نیز در عکاسی استودیویی برای دستیابی به آن مشکل دارند. ۶-پس زمینه را بررسی کنید پس زمینه یک تصویر اغلب می‌تواند نشان دهد که آیا دستکاری شده است یا خیر. در اینجا نیز اجسام می‌توانند تغییر شکل یافته به نظر برسند. منبع :فرارو به نقل از دویچه وله @ghazaleh_shabani
هدایت شده از خانم تحلیل گر
2.12M حجم رسانه بالاست
مشاهده در ایتا
🔸 یکی از مفاهیم مهم و کاربردی در مطالعات رسانه «شرق شناسی» است. این ویدیو‌که در شبکه الجزیره تولید شده است، این مفهوم را توضیح می‌دهد. @ghazaleh_shabani
هدایت شده از خانم تحلیل گر
🔸 دروازه‌بانی خبر خبری كه به روزنامه راه می‌یابد از دروازه‌های متعدد و از مسیری طولانی گذشته است. خبری كه در مقابل دیدگان شما قرار می‌گیرد، شما را آخرین می‌داند. آیا اجازه می‌دهید كه بر دروازه نگاه شما جای گیرد؟ تكرار می‌كنم: هر رویدادی كه به خبر تبدیل می‌شود از دروازه‌های متعدد می‌گذرد، برخی از این دروازه‌ها باز، برخی نیمه‌‍‌باز و تعدادی نیز كاملاً بسته هستند. استوارت هود (Stuart Hood) رمان نویس؛ مترجم و روزنامه‌نگار (زاده دسامبر ١٩١۵ در ادزل در اسكاتلند) كنترل كننده سرویس‌های تلویزیونی بی‌بی‌سی یك و دو در سال‌های ١٩۶١ تا ١٩۶٣ و تدارك كننده راه‌اندازی دومین كانال تلویزیونی بی‌بی‌سی موسوم به بی‌بی‌سی٢ (BBC Two) كه بعدها مدرس فیلم و سینما شد در فصل سیاست تلویزیون از كتاب جامعه‌شناسی وسایل ارتباط جمعی، ویراسته دنیس مك‌كوئیل (Denis McQuail) می‌‌نویسد: یك برنامه تلویزیونی حاصل چندین انتخاب است كه توسط طیفی از دروازه‌بانان یا همان (gatekeepers) صورت گرفته است. این دروازه‌بانان شامل این افراد می‌شوند: دبیری كه موضوع مورد پوشش را تعیین می‌كند، سازمان‌دهنده‌ای كه عكاسان و گزارشگران را برای تهیه موضوع توجیه می‌كند، تدوین‌كننده فیلم كه دست به انتخاب می‌زند. سازنده نهایی كه مقولات را از نوارها استخراج می‌كند، معاون فردی كه مسئول سوژه است و مسئول طرح كه شكل نهایی كار را تأیید می‌‌كند @ghazaleh_shabani