هدایت شده از آمل نگار
تا حالا به این فکر کردید که با وجود گسترش شبکههای اجتماعی و سهولت دسترسی به اینترنت، امکان اینکه به مردم خبر نادرست و دستکاری شده برسه چقدره؟ تقریباً بیش از ۶۰ درصد از مردم کشورهای مختلف معتقدند اطلاعاتی که به اونها میرسه درست نیست! بنظرتون این درصد در ایران چقدره؟
#رسانه
🌸کانال سرباز رسانه👇
@sarbaz_rasaneh
🌺 ( گروه جهاد فرهنگی در قالب جهاد تبيين شمال کشور)
👇
https://splus.ir/joingroup/CkDft9ZbuqlPnUKvMI24caAi
👇
https://eitaa.com/joinchat/627572932C748f729db1
هدایت شده از خانم تحلیل گر
🔺صبح امروز خبر انهدام کانون شورشی و ضد امنیتی توسط پاسداران گمنام امام زمان اطلاعات سپاه آمل را فرماندهی سپاه آمل خبر دادند. چند ساعت بعد در تویتر، توییت هایی در مورد این خبر زده شد، یکی از توییت ها رو بررسی می کنیم:
🔹ته کد دادن نگاه!!! بازداشت شماری از شهروندان در آمل!!!!!!!!!!!!!
1:دستگیری ننوشته جاش نوشته بازداشت یعنی ممکنه بدون ارتکاب جرم الکی گرفته باشنشون!
2: به جای استفاده از کلمه کانون که اکثریت نشون میده نوشته شماری که بیانگر حداقل باشه
3:استفاده از کلمه شهروندان که بحث حقوق شهروندی و... بیارن جلو و مظلوم نمایی کنند!!!
4:حالا کلمه بازداشت در کنار کلمه اتهام معنا پیدا میکنه یعنی الکی اومدن ریختن گرفتن بردن اتهام زدن!!!! اصلا حرفی از کارهای ضد امنیت ملی و شورش زده نمیشه تا ذهن مخاطب کاملا گمراه بشه!!!
و از همه مهم تر اینقدر عجله داشته در واکنش نشون دادن و توییت زدن که هشتگ حقوق بشر رو هم کامل نزده!!!!
🔺دقیقا رسانه با بازی با کلمات اون چیزی که دوست داره رو به خورد من و شما میده نه واقعیت رو!
#آمل #رسانه #منافقین #تویتر #غزاله_شعبانی_سرخنی
@ghazaleh_shabani
هدایت شده از خانم تحلیل گر
هوش مصنوعی!
یه آهنگ جدید از «دِرِیک» و «ویکند» منتشر شده که کلی هم ویرال شده
روز بعد این دو تا خواننده اومدن گفتن ما همچین آهنگی نخوندیم.
بعد متوجه شدن یکی با هوش مصنوعی صداشون رو کپی کرده و باهاش آهنگ ساخته.!
در آینده نه به تصاویر، ویدئو و صداها نمی شود اعتماد کرد زیرا همه اینها را با هر سناریوی توسط هوش مصنوعی می توان ساخت...
#رسانه
#هوش_مصنوعی
#غزاله_شعبانی_سرخنی
@ghazaleh_shabani
هدایت شده از خانم تحلیل گر
🔰شش راهکار برای تشخیص تصاویر جعلی هوش مصنوعی
🔺ابزارهای هوش مصنوعی نیز مرتکب اشتباه میشوند حتی اگر به سرعت در حال تکامل باشند. در حال حاضر (آوریل ۲۰۲۳ میلادی) برنامههایی مانند Midjourney، Dall-E و Deep AI دارای اشکالاتی هستند به خصوص با تصاویری که افراد را نشان میدهند.
۱-بزرگنمایی کرده و با دقت نگاه کنید
بسیاری از تصاویر تولید شده توسط هوش مصنوعی در نگاه اول واقعی به نظر میرسند.
به همین دلیل اولین پیشنهاد ما این است که به تصویر دقت کنید. برای انجام این کار تصویر را با بالاترین وضوح ممکن جستجو کنید و سپس روی جزئیات زوم کنید. بزرگ کردن تصویر ناهماهنگیها و خطاهایی را نشان میدهد که ممکن است در نگاه اول شناسایی نشده باشند.
۲-منبع تصویر را پیدا کنید
اگر مطمئن نیستید که یک تصویر واقعی میباشد یا توسط هوش مصنوعی تولید شده سعی کنید منبع آن را پیدا کنید.
ممکن است یک جستجوی عکس معکوس انجام دهید. برای انجام این کار تصویر را در ابزارهایی مانند Google Image Reverse Search، TinEye یا Yandex آپلود کنید و ممکن است منبع اصلی تصویر را پیدا کنید.
۳-به تناسب بدن توجه کنید
آیا افراد تصویر شده دارای تناسب اندام صحیحی هستند؟ ممکن است دستها خیلی کوچک یا انگشتان خیلی بلند باشند یا آن که سر و پا با بقیه بدن مطابقت ندارند.
۴-مراقب خطاهای معمول هوش مصنوعی باشید
دستها در حال حاضر منبع اصلی خطاها در برنامههای تصویر هوش مصنوعی هستند.
سایر خطاهای رایج در تصاویر تولید شده توسط هوش مصنوعی شامل افرادی با دندانهای بسیار زیاد هستند. هم چنین، فریم عینکهایی که به طرز عجیبی تغییر شکل پیدا کرده اند که در تصاویر ایجاد شده توسط هوش مصنوعی دیده میشوند. هم چنین، در بسیاری از این تصاویر گوشها اشکال غیر واقعی دارند
۵-آیا تصویر مصنوعی و صاف به نظر میرسند؟
بسیاری از تصاویر نیز دارای ظاهری هنرمندانه، براق و پر زرق و برق هستند که حتی عکاسان حرفهای نیز در عکاسی استودیویی برای دستیابی به آن مشکل دارند.
۶-پس زمینه را بررسی کنید
پس زمینه یک تصویر اغلب میتواند نشان دهد که آیا دستکاری شده است یا خیر.
در اینجا نیز اجسام میتوانند تغییر شکل یافته به نظر برسند.
منبع :فرارو به نقل از دویچه وله
#رسانه #سواد_رسانه_ای #هوش_مصنوعی #غزاله_شعبانی_سرخنی
@ghazaleh_shabani
هدایت شده از خانم تحلیل گر
2.12M حجم رسانه بالاست
مشاهده در ایتا
🔸 یکی از مفاهیم مهم و کاربردی در مطالعات رسانه «شرق شناسی» است. این ویدیوکه در شبکه الجزیره تولید شده است، این مفهوم را توضیح میدهد.
#ویدیو #رسانه
@ghazaleh_shabani
هدایت شده از خانم تحلیل گر
🔸 دروازهبانی خبر
خبری كه به روزنامه راه مییابد از دروازههای متعدد و از مسیری طولانی گذشته است. خبری كه در مقابل دیدگان شما قرار میگیرد، شما را آخرین #گزینشگر میداند. آیا اجازه میدهید كه بر دروازه نگاه شما جای گیرد؟ تكرار میكنم: هر رویدادی كه به خبر تبدیل میشود از دروازههای متعدد میگذرد، برخی از این دروازهها باز، برخی نیمهباز و تعدادی نیز كاملاً بسته هستند.
استوارت هود (Stuart Hood) رمان نویس؛ مترجم و روزنامهنگار (زاده دسامبر ١٩١۵ در ادزل در اسكاتلند) كنترل كننده سرویسهای تلویزیونی بیبیسی یك و دو در سالهای ١٩۶١ تا ١٩۶٣ و تدارك كننده راهاندازی دومین كانال تلویزیونی بیبیسی موسوم به بیبیسی٢ (BBC Two) كه بعدها مدرس فیلم و سینما شد در فصل سیاست تلویزیون از كتاب جامعهشناسی وسایل ارتباط جمعی، ویراسته دنیس مككوئیل (Denis McQuail) مینویسد:
یك برنامه تلویزیونی حاصل چندین انتخاب است كه توسط طیفی از دروازهبانان یا همان #گزینشگران (gatekeepers) صورت گرفته است. این دروازهبانان شامل این افراد میشوند: دبیری كه موضوع مورد پوشش را تعیین میكند، سازماندهندهای كه عكاسان و گزارشگران را برای تهیه موضوع توجیه میكند، تدوینكننده فیلم كه دست به انتخاب میزند. سازنده نهایی كه مقولات را از نوارها استخراج میكند، معاون فردی كه مسئول سوژه است و مسئول طرح كه شكل نهایی كار را تأیید میكند
#خبر #رسانه
@ghazaleh_shabani