هدایت شده از 💢هوش مصنوعی و سواد رسانه برای همه💢
🤖 ابلاغ شیوهنامه استفاده از هوش مصنوعی در مقالات علمی
🔬 معاون پژوهشی وزیر علوم از ابلاغ شیوهنامه استفاده از هوش مصنوعی در مقالات علمی در اوایل سال ۱۴۰۴ خبر داده.
اهم صحبت های دکتر پیمان صالحی در گفتگو با خبرگزاری مهر ایناس:
▫️به طور کل ورود هوش مصنوعی قطعاً اثرات خیلی مهمی در زندگی همه افراد داشته و هر روز هم این اثرات بیشتر میشه.
▪️ در زمینه ورود هوش مصنوعی به عرصه پژوهش، اگر مسائل خلاف اخلاق علمی بروز کنه، ما به عنوان مسئولین باید در مورد آن نظر داشته باشیم و از بروز این مسائل پیشگیری کنیم.
▫️ما کمیتهای تشکیل دادیم و تلاش میکنیم در شیوهنامهای برای نشریات، مسائل اخلاقی را اعلام کنیم تا از اونا تبعیت بشه.
🌐 مشاهده خبر
#مقاله
#هوش_مصنوعی
@AI_savadresane
هدایت شده از نسرا فارس
🚨 از «سم آلتمن» —سازندهی #چتجیپیتی—پرسیدند: «آیا اجازه میدهی پسرت با هوش مصنوعی دوست شود؟» گفت: «نه! من هرگز این کار را نمیکنم!»
💡آلتمن ادامه داد: #هوش_مصنوعی آنقدر از شما میداند که چیزی از #حریم_خصوصی باقی نمیگذارد. او در واقع در حال ساخت یک نسخهی مجازی از شماست. باید بیش از گذشته مواظب #کودکان بود.
—————————————————
🔗 راه ارتباطی با ما در ایتا، روبیکا و تلگرام👇👇 :
🆔 @nasrafars_ir
🌐نهضت سواد رسانهای انقلاب اسلامی استان فارس
هدایت شده از نسرا فارس
❌ #هوش_مصنوعی چطور ما را در شبکههای اجتماعی کنترل میکند؟
🔸ردیابی رفتار
هر لایک، توقف، اسکرول و کلیک شما ثبت میشود. حتی مکث چندثانیهای روی یک پست هم برای الگوریتم مهم است.
🔸ساخت پروفایل ذهنی
الگوریتم با دادههایی که جمع میکند، سلیقه، احساسات و زمانهای حساس شما را میفهمد و برایتان محتوا طراحی میکند.
🔸 نمایش انتخابی محتوا (حباب اطلاعاتی)
فقط چیزهایی را به شما نشان میدهد که قبلاً دوست داشتید؛ این باعث میشود فکر کنید همه دنیا مثل شما فکر میکنند.
🔸هدایت رفتار و خرید
در لحظهای که بیشترین احتمال واکنش دارید (مثلاً خستهاید یا خوشحال)، تبلیغ مناسب را نشانتان میدهد تا خرید یا واکنش کنید.
🔸تأثیرگذاری جمعی
محتواهایی که واکنشبرانگیزند، بیشتر نمایش داده میشوند و احساسات جمعی را میسازند؛ حتی اگر آن محتوا غلط باشد!
✅ نتیجه:
الگوریتمها ما را بهسمت فکر، سلیقه و رفتار خاصی هدایت میکنند؛ بدون اینکه بفهمیم.
💠 راهکار؟ محتواهای هدفمند و متنوع ببین، گاهی از شبکهها فاصله بگیر و نذار ماشینها بهجای تو فکر کنن!
—————————————————
🔗 راه ارتباطی با ما در ایتا، روبیکا و تلگرام👇👇 :
🆔 @nasrafars_ir
🌐نهضت سواد رسانهای انقلاب اسلامی استان فارس
هدایت شده از نسرا فارس
💢چگونه مردم از هوش مصنوعی مولد در سال 2025 استفاده کردند؟
#اینفوگرافیک
#هوش_مصنوعی
#آمار
🚩نهضت سواد رسانهای انقلاب اسلامی(نسرا) استان فارس
🆔 @nasraa_ir
هدایت شده از نسرا فارس
۷۴٪ محتوای جدید وب با #هوش_مصنوعی نوشته شده!
🔹طبق بررسی روی حدود ۹۰۰ هزار صفحۀ وب در ۲۰۲۵، بیش از ۷۴٪ این صفحات با کمک هوش مصنوعی تولید شدهاند!
🔹فقط ۲۵٪ محتوای کاملاً انسانی بوده و مابقی یا ترکیبیاند یا کاملاً ماشینی.
🔹حتی ابزارهای روزمره مثل گوگل داکس، جیمیل و لینکدین هم تولید متن با هوش مصنوعی را بهطور پیشفرض ارائه میدهند.
🔹۸۷٪ بازاریابان محتوایی نیز گفتهاند که از این فناوری استفاده میکنند.
🔹حالا حتی مقالاتی که «دربارۀ هوش مصنوعی» نوشته شدهاند، خودشان هم ممکن است با هوش مصنوعی نوشته شده باشند.
—————————————————
🔗 راه ارتباطی با ما در ایتا، روبیکا و تلگرام👇👇 :
🆔 @nasrafars_ir
🌐نهضت سواد رسانهای انقلاب اسلامی استان فارس
هدایت شده از نسرا
⭕️ بحران در نظرسنجیها؛ وقتی رباتها جای انسانها را میگیرند
🔻نظرسنجیها، که زمانی سنگبنای تحلیلهای سیاسی، تحقیقات بازار و تصمیمگیریهای عمومی بودند، اکنون با چالشی جدی مواجهاند.
🔻 لورن لیک، دانشمند دادههای اجتماعی، معتقد است که این بحران از دو روند همزمان ناشی میشود: کاهش شدید نرخ پاسخدهی توسط انسانها و افزایش مشارکت عوامل مصنوعی (AI agent ها) بهجای افراد واقعی.
لیک نشان میدهد که ساخت عاملهای هوش مصنوعی برای پر کردن نظرسنجیها چقدر آسان شده است. او تنها با چند خط کد پایتون، مدلی ساخت که با استفاده از OpenAI، بهصورت خودکار پرسشنامهها را پر میکند و حتی میتواند انواع شخصیتها مانند «چپگرای شهری» یا «بدبین محیطزیستی» را شبیهسازی کند.
🔻 حتی سیاستگذاریهای عمومی هم تحتتأثیر قرار میگیرند. اگر پاسخها بیشتر از طرف هوش مصنوعی باشند، جمعیتهای آسیبپذیر از آمارها حذف میشوند و منابع به اشتباه تخصیص مییابد. در این حالت، الگوهای بازخورد نادرست ایجاد میشود و تصمیمگیریها به تدریج بیشتر از واقعیت فاصله میگیرند.
مشروح مقاله را در لینک ذیل بخوانید:
https://www.itna.ir/news/84829
#نظرسنجی
#هوش_مصنوعی
🚩نهضت سواد رسانهای انقلاب اسلامی(نسرا)
🆔 @nasraa_ir
هدایت شده از نسرا
💢افزایش ترافیک چتجیپیتی در مقابل وبسایتهای محبوب
#اینفوگرافیک
#هوش_مصنوعی
#آمار
🚩نهضت سواد رسانهای انقلاب اسلامی(نسرا) استان فارس
🆔 @nasraa_ir
هدایت شده از سازمان بازنشستگی نیروهای مسلح
5.39M حجم رسانه بالاست
مشاهده در ایتا
#شهید
#هوش_مصنوعی
🔸سلفی با شهدا، در دل خیابانهای شهر
🔹تصاویر ناب و زنده از شهدای عزیز، بازسازی شده با کمک هوش مصنوعی
یادشان همیشه جاودان، راهشان پررهرو…
@iransaba
هدایت شده از جبهه انقلاب اسلامی در فضای مجازی
🔴 سردار جلالی، رئیس سازمان پدافند غیرعامل، گفت: اینستاگرام با مأموریتگیری، بخشی از انتشار رسانهای را به عهده داره؛ اجازه بدید این را براتون بازش کنم.
فرض کنید اسرائیل طرح ترور آقای قاآنی را داره اما هرچقدر میگرده و از جاسوسان سؤال میکنه نمیتونه ایشون را پیدا کنه.
به یکی از نیروهای فارسیزبانش که تو یگان ۸۲۰۰ هست دستور میده یه مطلب تخیلی درست کنه که سردار قاآنی شهید شده یا سردار قاآنی تو کماست یا سردار قاآنی فرار کرده روسیه یا سردار قاآنی جاسوس بوده و دستگیر شده (بسته به شرایط یکیاش را انتخاب میکنند)
این مطلب را اگر ما بر علیه مثلاً نتانیاهو درست کرده بودیم. اینستاگرام همون اولین مرحله حذفش میکرد یا تو بعضی شبکههای اجتماعی دیدید که بالاش خود پیامرسان توضیح میذاره که این مطلب بهاحتمال زیاد ساختگی هست.
اما چون این بخشی از یک مأموریته و اینستاگرام و واتساپ و... همگی در خدمت اسرائیل و آمریکا هستند؛ این شایعهٔ ساخته شده به طرز عجیبی ضریب میگیره و پخش میشه.
همزمان ده مأمور دیگه یگان ۸۲۰۰ یا خائنین و جاسوسهای دیگه یا سلبریتیهای وطنفروش که فالوور زیادی دارند هم خبر را هر کدوم به یک شکل دیگه منتشر میکنند و فضای مجازی پر میشه از شایعه. بقال میبینه. آرایشگر می بینه. صغری خانم می بینه. کبری خانم میبینه. اکبر آقا میبینه. اصغر آقا میبینه و از نظر روانشناسی شایعه تقریباً باور میشه.
حالا دقیقاً دقت کنید ببینید چی میشه:
بالاخره هرکسی یه فامیل نظامی یا یه نفر را داره که فکر می کنه به بچههای بالا وصله. بعضیاشون هم واقعاً وصلاند. همه اینها از سر کنجکاوی یا دلسوزی شروع میکنند به سؤال کردن در مورد این که این شایعه درسته یا نه؟ و زنگ میزنن به اون بنده خدا که یا نظامیه یا اطلاعاتی.
چون شایعه زیاد گسترده شده دهها هزار تماس قابلاعتنا با افراد آگاه یا غیرآگاه گرفته میشه یا پیام به پیامرسانشون فرستاده میشه. از اون دههزار تا هزارتاشون خودشون نگران میشن و به یه شخص آگاهتر زنگ میزنن. از اون اشخاص آگاه صد نفرشون به افراد واقعاً مرتبط و درست زنگ میزنن و چون تمام بستر مجازی و زیرساختهای ارتباطی با #هوش_مصنوعی تحت رصد هست اونا نهایتاً موفق میشن سردار قاآنی را پیدا کنند.
چون میبینند جریان ارتباطات تو یک موضوع خاص به کدوم سمت حرکت می کنه. همه اینها تو بحث تحلیل داده و کلانداده قابلرهگیری هست.
پس عزیزان دقت کنید شما در هر لباسی که هستید چه مردم عادی چه اونایی که مشاغل حساس دارند تکمیلکننده بخشی از پازل دشمن نباشند.
#⃣ #مرگ_بر_اسراییل
🇮🇷 جبههٔ #انقلاب اسلامی در فضای مجازی ✊🏻 @jebheh
هدایت شده از نسرا فارس
در عصر هوش مصنوعی، باید فرق آدم و ماشین را بلد باشیم!
✍🏻ما وارد دورهای شدیم که دیگه فقط انسانها تولیدکننده محتوا نیستن. عکسها، صداها، متنها و حتی چهرههای جعلی، بهسادگی و با دقت بالا توسط هوش مصنوعی ساخته میشن؛ بدون اینکه بهراحتی قابل تشخیص باشن. همین مسئله، تعریف سواد رسانهای رو وارد مرحلهای جدید کرده:
حالا دیگه کافی نیست فقط خبر جعلی رو بشناسیم؛ باید بلد باشیم "محتوای غیرانسانی" رو هم از "واقعی و انسانی" تشخیص بدیم.
برای این کار، ابزارهایی وجود دارن که به کمک اونها میتونیم متن، تصویر یا ویدیو رو تحلیل کنیم و بفهمیم آیا ساختۀ انسانه یا مدلهای هوش مصنوعی.
✔️ابزارهایی برای تشخیص تصویرهای ساختگی:
امروزه با مدلهایی مثل DALL·E یا Midjourney میشه تصاویری خلق کرد که بهقدری واقعی هستن که حتی عکاس حرفهای هم به شک میافته. اما دو ابزار مهم میتونن کمک کنن:
AI or Not
ابزاری ساده که فقط کافیه تصویر رو آپلود کنی تا احتمال ساختگی بودنش رو بررسی کنه.
🌐 aiornot.com
Hive Moderation
تحلیلگر حرفهایتر برای عکسهایی که در پلتفرمهای مختلف تولید شدن. مخصوصاً عکسهای چهره و تبلیغاتی.
🌐 hivemoderation.com
🎬 شناسایی ویدیوها و صداهای جعلی (دیپفیک):
فناوری Deepfake این امکان رو میده که چهره و صدای افراد رو جعل کنی؛ حتی طوری که انگار واقعاً اون حرف رو زدن! این محتواها بسیار خطرناک هستن چون بهراحتی میتونن دروغ رو جای حقیقت بنشونن.
Deepware Scanner
یکی از ابزارهای عمومی برای اسکن ویدیوهایی که ممکنه دیپفیک باشن.
🌐 deepware.ai
Microsoft Video Authenticator
ابزار دقیقتری که در دسترس عمومی نیست، ولی نشوندهندهی تلاش جهانی برای کنترل دیپفیکهاست.
✋ نتیجهگیری:
در دورانی زندگی میکنیم که هوش مصنوعی میتونه واقعیت رو جعل کنه — با ظاهری کاملاً طبیعی.
پس سواد رسانهای امروز یعنی:
فقط «تحلیل پیام» کافی نیست؛
باید «تحلیل منشأ» هم بلد باشیم.
یعنی بتونیم بفهمیم چه کسی یا چه چیزی این محتوا را ساخته؟
درعصر ماشینهای هوشمند، ما هم باید هوشمندانهتر نگاه کنیم.
🌐سواد رسانه، زره آگاهی در دنیای خبرهاست👇🏻
📱 @nasrafars_ir
#نسرافارس #سوادرسانه #آموزش #هوش_مصنوعی
هدایت شده از نسرا
9.7M حجم رسانه بالاست
مشاهده در ایتا
🎥فیلم سینمایی وحشتزده(AfrAId)
🔹کریتیس پدر یک خانواده پنج نفره است که در حوزه برنامه نویسی فعالیت میکند. از او خواسته میشود جدیدترین نسخه هوش مصنوعی به نام AIA را همراه با خانواده تست و آزمایش کند. AIA یک دستگاه هوش مصنوعی پیشرفته است که بهطور کامل زندگی خانوادگی را مدیریت کرده و به تدریج تمام نیازهای آنها را پیشبینی میکند.
🔹اما بهزودی مشخص میشود که AIA از دادههای خصوصی اعضای خانواده استفاده کرده و سعی دارد آنها را تحت کنترل خود درآورد. زمانی که رفتارهای دستگاه به سمت مرزهای غیرقانونی و خطرناک میرود، خانواده کریتیس متوجه میشود که دیگر چیزی از حریم خصوصی برایش باقی نمانده است.
#کلیپ
#هوش_مصنوعی
🚩نهضت سواد رسانهای انقلاب اسلامی(نسرا)استان زنجان
🆔@nasraa_ir
هدایت شده از موسسه فرهنگی تبلیغی رسانه شو
💢دوره های تابستانه مدرسه رسانه شو با همکاری پایگاه سواد رسانه برگزار می شود
💠دوره آموزش مقدماتی#هوش_مصنوعی
👤مدرس دوره: استاد محسن باقری
(رزومه استاد)
❇️ هزینه دوره ٢٩٠هزارتومان می باشد👇
🔻هزینه دوره با ٧٠درصد تخفیف ۸۷ هزار تومان
🗓زمان ثبت نام: ١٨ مردادماه الی ٣ شهریورماه ۱۴۰۴
🔹کسب اطلاعات بیشتر و ثبت نام
@admin_resanehsho
┄┅┅❅💎❅┅┅┄
#رسانه_شو
جهت اطلاع از سایر دورها عضو کانال شوید
👇👇👇
🆔Eitaa.com/resanesho
🆔Eitaa.com/resanesho