eitaa logo
ذره بین حقیقت
157 دنبال‌کننده
2.9هزار عکس
4هزار ویدیو
90 فایل
ما جمع فرهیختگان آگاه سازدرمسائل فرهنگی ، سیاسی،اجتماعی ، درجامعه جوان کشورهستیم
مشاهده در ایتا
دانلود
🤖 ابلاغ شیوه‌نامه استفاده از هوش مصنوعی در مقالات علمی 🔬 معاون پژوهشی وزیر علوم از ابلاغ شیوه‌نامه استفاده از هوش مصنوعی در مقالات علمی در اوایل سال ۱۴۰۴ خبر داده. اهم صحبت های دکتر پیمان صالحی در گفتگو با خبرگزاری مهر ایناس: ▫️به طور کل ورود هوش مصنوعی قطعاً اثرات خیلی مهمی در زندگی همه افراد داشته و هر روز هم این اثرات بیشتر می‌شه. ▪️ در زمینه ورود هوش مصنوعی به عرصه پژوهش، اگر مسائل خلاف اخلاق علمی بروز کنه، ما به عنوان مسئولین باید در مورد آن نظر داشته باشیم و از بروز این مسائل پیشگیری کنیم. ▫️ما کمیته‌ای تشکیل دادیم و تلاش می‌کنیم در شیوه‌نامه‌ای برای نشریات، مسائل اخلاقی را اعلام کنیم تا از اونا تبعیت بشه. 🌐 مشاهده خبر @AI_savadresane
هدایت شده از نسرا فارس
🚨 از  «سم آلتمن» —سازنده‌ی —پرسیدند: «آیا اجازه می‌دهی پسرت با هوش مصنوعی دوست شود؟»  گفت: «نه! من هرگز این کار را نمی‌کنم!» 💡آلتمن ادامه داد: آن‌قدر از شما می‌داند که چیزی از باقی نمی‌گذارد. او در واقع در حال ساخت یک نسخه‌ی مجازی از شماست. باید بیش از گذشته مواظب بود. ————————————————— 🔗 راه ارتباطی با ما در ایتا، روبیکا و تلگرام👇👇 : 🆔 @nasrafars_ir 🌐نهضت سواد رسانه‌ای انقلاب اسلامی استان فارس ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌
هدایت شده از نسرا فارس
چطور ما را در شبکه‌های اجتماعی کنترل می‌کند؟ 🔸ردیابی رفتار هر لایک، توقف، اسکرول و کلیک شما ثبت می‌شود. حتی مکث چندثانیه‌ای روی یک پست هم برای الگوریتم مهم است. 🔸ساخت پروفایل ذهنی الگوریتم با داده‌هایی که جمع می‌کند، سلیقه، احساسات و زمان‌های حساس شما را می‌فهمد و برایتان محتوا طراحی می‌کند. 🔸 نمایش انتخابی محتوا (حباب اطلاعاتی) فقط چیزهایی را به شما نشان می‌دهد که قبلاً دوست داشتید؛ این باعث می‌شود فکر کنید همه دنیا مثل شما فکر می‌کنند. 🔸هدایت رفتار و خرید در لحظه‌ای که بیشترین احتمال واکنش دارید (مثلاً خسته‌اید یا خوشحال)، تبلیغ مناسب را نشانتان می‌دهد تا خرید یا واکنش کنید. 🔸تأثیرگذاری جمعی محتواهایی که واکنش‌برانگیزند، بیشتر نمایش داده می‌شوند و احساسات جمعی را می‌سازند؛ حتی اگر آن محتوا غلط باشد! ✅ نتیجه: الگوریتم‌ها ما را به‌سمت فکر، سلیقه و رفتار خاصی هدایت می‌کنند؛ بدون اینکه بفهمیم. 💠 راهکار؟ محتواهای هدفمند و متنوع ببین، گاهی از شبکه‌ها فاصله بگیر و نذار ماشین‌ها به‌جای تو فکر کنن! ————————————————— 🔗 راه ارتباطی با ما در ایتا، روبیکا و تلگرام👇👇 : 🆔 @nasrafars_ir 🌐نهضت سواد رسانه‌ای انقلاب اسلامی استان فارس ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌
هدایت شده از نسرا فارس
💢چگونه مردم از هوش مصنوعی مولد در سال 2025 استفاده کردند؟  🚩نهضت سواد رسانه‌ای انقلاب اسلامی(نسرا) استان فارس 🆔 @nasraa_ir
هدایت شده از نسرا فارس
۷۴٪ محتوای جدید وب با نوشته شده! 🔹طبق بررسی روی حدود ۹۰۰ هزار صفحۀ وب در ۲۰۲۵، بیش از ۷۴٪ این صفحات با کمک هوش مصنوعی تولید شده‌اند! 🔹فقط ۲۵٪ محتوای کاملاً انسانی بوده و مابقی یا ترکیبی‌اند یا کاملاً ماشینی. 🔹حتی ابزارهای روزمره مثل گوگل داکس، جیمیل و لینکدین هم تولید متن با هوش مصنوعی را به‌طور پیش‌فرض ارائه می‌دهند. 🔹۸۷٪ بازاریابان محتوایی نیز گفته‌اند که از این فناوری استفاده می‌کنند. 🔹حالا حتی مقالاتی که «دربارۀ هوش مصنوعی» نوشته شده‌اند، خودشان هم ممکن است با هوش مصنوعی نوشته شده باشند. ————————————————— 🔗 راه ارتباطی با ما در ایتا، روبیکا و تلگرام👇👇 : 🆔 @nasrafars_ir 🌐نهضت سواد رسانه‌ای انقلاب اسلامی استان فارس
هدایت شده از نسرا
⭕️ بحران در نظرسنجی‌ها؛ وقتی ربات‌ها جای انسان‌ها را می‌گیرند 🔻نظرسنجی‌ها، که زمانی سنگ‌بنای تحلیل‌های سیاسی، تحقیقات بازار و تصمیم‌گیری‌های عمومی بودند، اکنون با چالشی جدی مواجه‌اند. 🔻 لورن لیک، دانشمند داده‌های اجتماعی، معتقد است که این بحران از دو روند هم‌زمان ناشی می‌شود: کاهش شدید نرخ پاسخ‌دهی توسط انسان‌ها و افزایش مشارکت عوامل مصنوعی (AI agent ها) به‌جای افراد واقعی. لیک نشان می‌دهد که ساخت عامل‌های هوش مصنوعی برای پر کردن نظرسنجی‌ها چقدر آسان شده است. او تنها با چند خط کد پایتون، مدلی ساخت که با استفاده از OpenAI، به‌صورت خودکار پرسش‌نامه‌ها را پر می‌کند و حتی می‌تواند انواع شخصیت‌ها مانند «چپ‌گرای شهری» یا «بدبین محیط‌زیستی» را شبیه‌سازی کند. 🔻 حتی سیاست‌گذاری‌های عمومی هم تحت‌تأثیر قرار می‌گیرند. اگر پاسخ‌ها بیشتر از طرف هوش مصنوعی باشند، جمعیت‌های آسیب‌پذیر از آمارها حذف می‌شوند و منابع به اشتباه تخصیص می‌یابد. در این حالت، الگوهای بازخورد نادرست ایجاد می‌شود و تصمیم‌گیری‌ها به تدریج بیشتر از واقعیت فاصله می‌گیرند. مشروح مقاله را در لینک ذیل بخوانید: https://www.itna.ir/news/84829 🚩نهضت سواد رسانه‌ای انقلاب اسلامی(نسرا) 🆔 @nasraa_ir
هدایت شده از نسرا
💢افزایش ترافیک چت‌جی‌پی‌تی در مقابل وب‌سایت‌های محبوب 🚩نهضت سواد رسانه‌ای انقلاب اسلامی(نسرا) استان فارس 🆔 @nasraa_ir
5.39M حجم رسانه بالاست
مشاهده در ایتا
🔸سلفی با شهدا، در دل خیابان‌های شهر 🔹تصاویر ناب و زنده از شهدای عزیز، بازسازی شده با کمک هوش مصنوعی یادشان همیشه جاودان، راهشان پررهرو… @iransaba
🔴 سردار جلالی، رئیس سازمان پدافند غیرعامل، گفت: اینستاگرام با مأموریت‌گیری، بخشی از انتشار رسانه‌ای را به عهده داره؛ اجازه بدید این را براتون بازش کنم. فرض کنید اسرائیل طرح ترور آقای قاآنی را داره اما هرچقدر می‌گرده و از جاسوسان سؤال می‌کنه نمیتونه ایشون را پیدا کنه. به یکی از نیروهای فارسی‌زبانش که تو یگان ۸۲۰۰ هست دستور میده یه مطلب تخیلی درست کنه که سردار قاآنی شهید شده یا سردار قاآنی تو کماست یا سردار قاآنی فرار کرده روسیه یا سردار قاآنی جاسوس بوده و دستگیر شده (بسته به شرایط یکی‌اش را انتخاب می‌کنند) این مطلب را اگر ما بر علیه مثلاً نتانیاهو درست کرده بودیم. اینستاگرام همون اولین مرحله حذف‌ش می‌کرد یا تو بعضی شبکه‌های اجتماعی دیدید که بالاش خود پیام‌رسان توضیح می‌ذاره که این مطلب به‌احتمال زیاد ساختگی هست. اما چون این بخشی از یک مأموریته و اینستاگرام و واتس‌اپ و... همگی در خدمت اسرائیل و آمریکا هستند؛ این شایعهٔ ساخته شده به طرز عجیبی ضریب می‌گیره و پخش میشه. هم‌زمان ده مأمور دیگه یگان ۸۲۰۰ یا خائنین و جاسوس‌های دیگه یا سلبریتی‌های وطن‌فروش که فالوور زیادی دارند هم خبر را هر کدوم به یک شکل دیگه منتشر می‌کنند و فضای مجازی پر میشه از شایعه. بقال می‌بینه. آرایشگر می بینه. صغری خانم می بینه. کبری خانم می‌بینه. اکبر آقا می‌بینه. اصغر آقا می‌بینه و از نظر روانشناسی شایعه تقریباً باور میشه. حالا دقیقاً دقت کنید ببینید چی میشه: بالاخره هرکسی یه فامیل نظامی یا یه نفر را داره که فکر می کنه به بچه‌های بالا وصله. بعضیاشون هم واقعاً وصل‌اند. همه این‌ها از سر کنجکاوی یا دلسوزی شروع می‌کنند به سؤال کردن در مورد این که این شایعه درسته یا نه؟ و زنگ می‌زنن به اون بنده خدا که یا نظامیه یا اطلاعاتی. چون شایعه زیاد گسترده شده ده‌ها هزار تماس قابل‌اعتنا با افراد آگاه یا غیرآگاه گرفته میشه یا پیام به پیام‌رسان‌شون فرستاده میشه. از اون ده‌هزار تا هزارتاشون خودشون نگران میشن و به یه شخص آگاه‌تر زنگ میزنن. از اون اشخاص آگاه صد نفرشون به افراد واقعاً مرتبط و درست زنگ می‌زنن و چون تمام بستر مجازی و زیرساخت‌های ارتباطی با تحت رصد هست اونا نهایتاً موفق میشن سردار قاآنی را پیدا کنند. چون می‌بینند جریان ارتباطات تو یک موضوع خاص به کدوم سمت حرکت می کنه. همه اینها تو بحث تحلیل داده و کلان‌داده قابل‌رهگیری هست. پس عزیزان دقت کنید شما در هر لباسی که هستید چه مردم عادی چه اونایی که مشاغل حساس دارند تکمیل‌کننده بخشی از پازل دشمن نباشند. #⃣
🇮🇷 جبههٔ  اسلامی در فضای مجازی
✊🏻 @jebheh
هدایت شده از نسرا فارس
در عصر هوش مصنوعی، باید فرق آدم و ماشین را بلد باشیم! ✍🏻ما وارد دوره‌ای شدیم که دیگه فقط انسان‌ها تولیدکننده محتوا نیستن. عکس‌ها، صداها، متن‌ها و حتی چهره‌های جعلی، به‌سادگی و با دقت بالا توسط هوش مصنوعی ساخته می‌شن؛ بدون اینکه به‌راحتی قابل تشخیص باشن. همین مسئله، تعریف سواد رسانه‌ای رو وارد مرحله‌ای جدید کرده: حالا دیگه کافی نیست فقط خبر جعلی رو بشناسیم؛ باید بلد باشیم "محتوای غیرانسانی" رو هم از "واقعی و انسانی" تشخیص بدیم. برای این کار، ابزارهایی وجود دارن که به کمک اون‌ها می‌تونیم متن، تصویر یا ویدیو رو تحلیل کنیم و بفهمیم آیا ساختۀ انسانه یا مدل‌های هوش مصنوعی. ✔️ابزارهایی برای تشخیص تصویرهای ساختگی: امروزه با مدل‌هایی مثل DALL·E یا Midjourney می‌شه تصاویری خلق کرد که به‌قدری واقعی‌ هستن که حتی عکاس حرفه‌ای هم به شک می‌افته. اما دو ابزار مهم می‌تونن کمک کنن: AI or Not ابزاری ساده که فقط کافیه تصویر رو آپلود کنی تا احتمال ساختگی بودنش رو بررسی کنه. 🌐 aiornot.com Hive Moderation تحلیل‌گر حرفه‌ای‌تر برای عکس‌هایی که در پلتفرم‌های مختلف تولید شدن. مخصوصاً عکس‌های چهره و تبلیغاتی. 🌐 hivemoderation.com 🎬 شناسایی ویدیوها و صداهای جعلی (دیپ‌فیک): فناوری Deepfake این امکان رو می‌ده که چهره و صدای افراد رو جعل کنی؛ حتی طوری که انگار واقعاً اون حرف رو زدن! این محتواها بسیار خطرناک‌ هستن چون به‌راحتی می‌تونن دروغ رو جای حقیقت بنشونن. Deepware Scanner یکی از ابزارهای عمومی برای اسکن ویدیوهایی که ممکنه دیپ‌فیک باشن. 🌐 deepware.ai Microsoft Video Authenticator ابزار دقیق‌تری که در دسترس عمومی نیست، ولی نشون‌دهنده‌ی تلاش جهانی برای کنترل دیپ‌فیک‌هاست. ✋ نتیجه‌گیری: در دورانی زندگی می‌کنیم که هوش مصنوعی می‌تونه واقعیت رو جعل کنه — با ظاهری کاملاً طبیعی. پس سواد رسانه‌ای امروز یعنی: فقط «تحلیل پیام» کافی نیست؛ باید «تحلیل منشأ» هم بلد باشیم. یعنی بتونیم بفهمیم چه کسی یا چه چیزی این محتوا را ساخته؟ درعصر ماشین‌های هوشمند، ما هم باید هوشمندانه‌تر نگاه کنیم. 🌐سواد رسانه، زره آگاهی در دنیای خبرهاست👇🏻 📱 @nasrafars_ir
هدایت شده از نسرا
9.7M حجم رسانه بالاست
مشاهده در ایتا
🎥فیلم سینمایی وحشت‌زده(AfrAId) 🔹کریتیس پدر یک خانواده پنج نفره است که در حوزه برنامه نویسی فعالیت میکند. از او خواسته می‌شود جدیدترین نسخه هوش مصنوعی به نام AIA را همراه با خانواده تست و آزمایش کند. AIA یک دستگاه هوش مصنوعی پیشرفته است که به‌طور کامل زندگی خانوادگی را مدیریت کرده و به تدریج تمام نیازهای آن‌ها را پیش‌بینی می‌کند. 🔹اما به‌زودی مشخص می‌شود که AIA از داده‌های خصوصی اعضای خانواده استفاده کرده و سعی دارد آن‌ها را تحت کنترل خود درآورد. زمانی که رفتارهای دستگاه به سمت مرزهای غیرقانونی و خطرناک می‌رود، خانواده کریتیس متوجه می‌شود که دیگر چیزی از حریم خصوصی برایش باقی نمانده است. 🚩نهضت سواد رسانه‌ای انقلاب اسلامی(نسرا)استان زنجان 🆔@nasraa_ir
💢دوره های تابستانه مدرسه رسانه شو با همکاری پایگاه سواد رسانه برگزار می شود 💠دوره آموزش مقدماتی 👤مدرس دوره: استاد محسن باقری (رزومه استاد) ❇️ هزینه دوره ٢٩٠هزارتومان می باشد👇 🔻هزینه دوره با ٧٠درصد تخفیف ۸۷ هزار تومان 🗓زمان ثبت نام: ١٨ مردادماه الی ٣ شهریورماه ۱۴۰۴ 🔹کسب اطلاعات بیشتر و ثبت نام @admin_resanehsho ‌‌‌‌ ┄┅┅❅💎❅┅┅┄ جهت اطلاع از سایر دورها عضو کانال شوید 👇👇👇 🆔Eitaa.com/resanesho 🆔Eitaa.com/resanesho