eitaa logo
سواد رسانه و روانشناسی
194 دنبال‌کننده
3.4هزار عکس
1.6هزار ویدیو
49 فایل
سواد رسانه یکی از نیازهای دنیای مدرن است. با سواد رسانه و شناخت اصول روانشناسی به قدرت تحلیل مسلح شوید. برای ارتباط، پیشنهاد، انتقاد و... با شناسه مدیر تماس بگیرید. مدیر: @Vavgh01 #سواد_رسانه کانال حداقل "یک روز در هفته" به روز رسانی می شود.
مشاهده در ایتا
دانلود
هدایت شده از سواد رسانه‌ای
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🚦‏تصورکنید در حالیکه در ایران هستید و به زبان فارسی صحبت می‌کنید، یک نسخه از شما همزمان در ژاپن و به زبان ژاپنی سخنرانی کنه. در این ویدیو، مایکروسافت از Azure صحبت می‌کنه که با وجود ‎هولولنز یک ‎هولوگرام در ابعاد واقعی از فرد می‌سازه! 📍عدم توجه به باعث میشه آینده برای بشر ترسناک باشه! 📲 @savaderesanei
🎯 هوش مصنوعی اشتباه نمی‌کند، برای همین باید از آن ترسید — ما هنوز نمی‌دانیم هوش مصنوعی چطور تصمیم می‌گیرد، اما می‌دانیم مثل انسان‌ها عمل نمی‌کند 📍همۀ نشانه‌ها حاکی از این است که در آینده‌ای نه‌چندان دور، هوش مصنوعی به بخش مهمی از زندگی روزمرۀ ما تبدیل خواهد شد. هوش مصنوعی علاوه بر آنکه به ما پیشنهاد خواهد داد چه موسیقی‌ای گوش بدهیم یا چه کفشی بخریم، جای پزشک و قاضی و پلیس را هم خواهد گرفت. اما چالش اصلی‌ای که پیش روی ما قرار دارد، نه احتمال بیکاریِ شمار بیشتری از انسان‌ها، بلکه این واقعیت است که هیچکس، حتی خود سازندگان این فناوری‌ها، نمی‌دانند هوش مصنوعی چطور تصمیم می‌گیرد. 🔖 ۲۱۰۰ کلمه ⏰ زمان مطالعه: ۱۳ دقيقه 📌 ادامۀ مطلب را در لینک زیر بخوانید: http://tarjomaan.com/barresi_ketab/9598/
🚦رسانه و هوش مصنوعی شرکت والت دیزنی انیمیشن می سازد 🔸مدت زمان زیادی نیست که هوش مصنوعی قادر به ساخت کلیپ های ساده از روی متون نوشتاری شده است اما پیشرفت و استقلال هوش مصنوعی از عوامل انسانی با سرعت بسیار بالائی در حال انجام است و در یکی از جالب ترین اقدامات پژوهشگران دیزنی اعلام کرده اند در این زمینه از ساخت کلیپ های ساده یک قدم جدی فراتر رفته اند. 🔸طی پژوهش اخیر پژوهشگران دیزنی با اساتید دانشگاه برانزویک توانست بدون راهکارها و کمکهای انسانی، استوری لاین و حتی انیمیشن یک سناریوی جدی و چالشی را طراحی و تولید کند. 📍پژوهشگران اظهار امیدواری کرده اند که بتوان با کمک این راهکارها حوزه هایی نظیر آموزش را که جایگزینی ویدیو با متن بسیار مفیدتر و آموزنده تر خواهد بود، به طور کلی متحول کنند. ▫️سایبر وان 📲 @savaderesanei
⭕️هشدار مجدد نسبت به افزایش بی سابقه پیامهای آلوده شیوع کرونا علاوه بر آسیب های متعدد آن، فرصت مناسبی برای هکرها به وجود آورده است تا با پوشش ، اخبارها و درمانهای آن اقدام به آلوده سازی، سرقت و استثمار طیف گسترده ای از مردم بکنند، به طوری که مسئولین گوگل اعلام کرده اند که علاوه بر مسدود سازی روزانه 240 میلیون اسپم کرونائی، روزانه 18 میلیون ایمیل فیشینگ کرونائی را مسدود و بلاک می کنند. هکرها در حملات به سبک فیشینگ می توانند اطلاعات شخصی، شغلی و مالی افراد را به سرقت ببرند و در حملات به سبک بدافزار بارگذاری شده می توانند با آلوده کردن سیستم طعمه علاوه بر سرقت اطلاعاتی، از آنها در فرآیند استثمار بات نت، استخراج ارز دیجیتال و غیره استفاده کنند و این در حالی است که صاحبین سیستم های آلوده از استثمار سایبری و آلت دست قرار گرفتن توسط هکرها هیچ اطلاعی ندارند. بنا به گفته مسئولین گوگل، مسدود سازی روزانه 18 میلیون ایمیل فیشینگ کرونائی معادل %99.9 از حجم کلی پیامهای فیشینگ کرونائی است و علی رغم همه تلاشها حدودا %0.1 از ایمیلهای فیشینگ به دست افراد طعمه می رسد و لذا گوگل در تلاش است تا با راه اندازی گونه ای خاص از با قدرت و دقتی بیشتر به مقابله با هکرها بپردازد. https://medium.com/pcmag-access/google-were-blocking-18-million-covid-19-phishing-emails-a-day-ebf15ebf59b2
🔸تحریم هوش مصنوعی چین 🔻استانداردهای دوگانه آمریکا ▫️من می‌توانم، تو نمی‌توانی ▫️گلوبال تایمز روزنامه گلوبال تایمز نوشت ریاکاری و استانداردهای دوگانه آمریکا که از امنیت اطلاعات و به کار بردن فناوری هوش مصنوعی توسط پکن انتقاد می‌کند در جریان تظاهرات اخیر در واشنگتن به طور کامل آشکار شد چرا که آمریکا در حالی از فناوری هوش مصنوعی چین انتقاد می‌کند که خودش از ابزارهای هوش مصنوعی تشخیص چهره برای بازداشت حامیان شورشگر که به سمت ساختمان کنگره آمریکا حمله کرده‌اند، استفاده می‌کند.چنین رویکردی از سوی آمریکا برای آن دسته از شرکت‌های هوش مصنوعی چین که در فهرست تحریم‌های واشنگتن قرار گرفته‌اند، به معنای یک استاندارد دوگانه واضح از سوی واشنگتن با شعار "من می‌توانم، تو نمی‌توانی" است!
🚦چگونه ربات‌ها و ترول‌ها در شبکه‌های اجتماعی فریب می‌دهند؟ 📍ابتدا ربات‌ها از طریق ، رفتار کابران اینترنتی را شبیه‌سازی می‌کنند تا انتشار اخبار جعلی طبیعی به نظر برسد. به طور مثال در توئیتر، ربات‌ها تعاملات اجتماعی را تقلید کرده و شبیه اکانت‌های واقعی، طبیعی جلوه می‌کنند و سبب می‌شوند مردم آنها را کاربر عادی ببینند. 🔸یکی از ترفندهای این ربات‌ها، پرسیدن سوال در توئیت‌ اکانت‌های بانفوذ و پرفالور است تا نظرشان را به خود جلب کنند و با تبادل نظر با آنها و سایر کاربران، اعتمادسازی کنند. حتی آنها فراتر از این، با نوشتن مطالبی با موضوع‌های پرطرفدار، بحث ایجاد می‌کنند تا در الگوریتم ترندینگ جایگاهی پیدا کنند. 🔺ربات‌ها حتی می‌توانند محبوبیت مصنوعی ایجاد کنند و یک شخص یا جنبش را تاثیرگذار کرده و تقویت کنند. به طور نمونه تاثیرگذاری بر سیاست از جمله انتخابات و یا حتی تاثیرگذاری بر بازارهای مالی. ربات‌ها حتی تلاش می‌کنند دیگران را ساکت کنند، هرزنامه پخش می‌کنند و حملات فیشینگی دارند. 🔹تعداد دقیق ربات‌ها مشخص نیست اما تخمین زده می‌شود بین ۵ تا ۱۵ درصد از حساب‌های کاربران شبکه‌های اجتماعی را تشکیل می‌دهند و آنقدر واقعی به‌نظر می‌رسند و مردم به‌گونه‌ای به آنها واکنش نشان می‌دهند که گویی کاربران واقعی هستند! 📍چگونه ربات‌ها به انتشار اخبار جعلی کمک می‌کنند؟ 🔸ربات‌ها، اخبار جعلی را ابتدا با جست‌وجو و بازیابی اطلاعات غیرمجاز در وب منتشر می‌کنند؛ سپس به طور مداوم در سایت‌های رسانه‌های اجتماعی پست می‌کنند و با استفاده از موضوع‌های پرطرفدار و هشتگ‌ها، به‌عنوان استراتژی‌های اصلی برای دستیابی به مخاطبان گسترده‌تر، محتوای غیرقانونی را پخش می‌کنند که در بسیاری از موارد به انتشار اخبار جعلی کمک می‌کند. 🔺آنها به «گفتن» یا «توئیت کردن» اخبار جعلی ادامه می‌دهند و از همان اطلاعات نادرست برای پاسخ دادن به پست‌های کاربران واقعی رسانه‌های اجتماعی یا اظهار نظر در مورد آنها استفاده می‌کنند و مردم به دلیل احساساتی بودن در انتشار این اخبار جعلی به ربات‌ها کمک می‌کنند. 🔸بر اساس تحقیقات انجام شده، بیشتر احتمال دارد که مردم اخبار جعلی را به اشتراک بگذارند تا اخبار درست و واقعی! چون مردم در تشخیص اخبار درست مشکل دارند. مردم بر این باورند که توانایی تشخیص خبر واقعی از جعلی را دارند و به خود اعتماد دارند و همین اعتماد فراتر از باور، سبب شده اخبار جعلی در رسانه‌های اجتماعی بیشتر به اشتراک گذاشته شود؛ به‌گونه‌ای که در توئیتر ۷۰ درصد بیشتر از داستان‌های واقعی، اخبار جعلی را بازنشر می‌کنند و این را می‌توان به حساب تازگی خبر و عطش مردم گذاشت 🔹ربات‌ها پس از القاء خبر نادرست به جای درست، به گروه‌های پنهان کوچکی از مردم اجازه می‌دهند اطلاعاتی را که از دستور کارشان پشتیبانی می‌کند، در مقیاس بزرگ تبلیغ کنند. ربات‌ها محتوای خود را در نتایج جست‌وجو، سبد خرید مردم و به بالای فیدهای خبری هدایت می‌کنند تا آنجایی که می‌توانند در انتخابات کشورها هم موثر باشند. ▫️ایرنا savaderesanei