eitaa logo
عصرتبیین عصررسانه
1.6هزار دنبال‌کننده
697 عکس
443 ویدیو
29 فایل
هوالمصور محفلی برای تاملات رسانه ای در حوزه های فرهنگ، جامعه و سیاست... عصر پردازش بهتر و روایت قوی تر اطلاعات ارتباط با مدیرسایت و کانال: @Sarbaze_eslam_31312 جانشین مدیر: @Fadaiyani ادرس سایت: Www.asretabyin.ir آپارات: www.aparat.com/Asre_Tabyin
مشاهده در ایتا
دانلود
لطفا در ایتا مطلب را دنبال کنید
مشاهده در پیام رسان ایتا
💬از هوش مصنوعی چه میدانید؟ 🔸آیا هوش مصنوعی بر انسان مسلط خواهد شد؟ 🔹الگوریتم ها چگونه خود را بهتر میکنند و هدفشان چیست؟ 🌐کانال عصر جدید،عصر رسانه 🆔 @andisheengelabi
(۲)؛ 🔎سلبریتی ها، حباب اطلاعاتی و تله پژواک! 🔸اینروزها شاهد هستیم که برخی سلبریتی های فوتبالیست و بازیگر و...، علی رغم مشاهده راهپیمایی میلیونی مردم علیه آشوب‌ها همچنان بصورت سریالی بر طبل اغتشاش کوبیده و عبارتی را تکرار می‌کنند که "کنار مردم هستیم". اما چرا؟ 🔹حباب اطلاعاتی اصطلاحی است مبتنی بر یک در فضای مجازی که کاربران شبیه را به همدیگر نزدیک تر نشان داده و برای همدیگر پیشنهاد می‌دهد. در واقع بر اساس حاکم بر پلتفرم ها، هیچ پلتفرم خنثی و بی‌طرف نداریم. 🔸پلتفرم های خارجی مثل اینستاگرام و توییتر و...کاربران را بر اساس نوع علاقمندی و ذائقه و سیر و سلوک مجازی شان در محاصره کاربران شبیه خود قرار داده و یک پژواک و را رقم می زنند که باعث فریب کاربران شده و تمام محیط را شبیه خودشان تلقی می‌کنند. 🔹این باعث می شود که افراد مبتنی بر ذائقه و گذشته و حال و آرزوهای خاصی که دارند، محیطی مجازی و گاها تخیلی را برای خود رقم زده و با افرادی در ارتباط باشند که «نظرات و حرف‌های آنها» را تکرار یا تایید می‌کنند. 🔸خطای محاسباتی که افراد نزدیک خود را تمام محیط و تشخیص می‌دهند و کنشگری های افراد را دچار اختلال جدی می کنند. خصوصا اگر میزان فالوورها بیشتر باشد، پژواک عمیق تری را بدلیل تایید و لایک های بیشتر شکل داده و میزان خطاپذیری افزایش می یابد. 🔹فارغ از سوگیرهای سیاسی عده ای از افراد و امنیتی شدن پُست ها و استوری هایشان، در خیلی از موارد بدلیل همین الگوریتم حاکم بر فضای مجازی شاهد هستیم که عبارتی بنام تکرار شده و تبدیل به کلیشه و شعار می شود. 🔸اما اینکه کدام مردم را اراده می‌کنند و چرا قادر به دیدن مردم میدان انقلاب و حضور میلیونی شان در سراسر کشور علیه آشوب ها نیستند، چه بسا ناشی از واقعیتی بنام حباب اطلاعاتی و تله پژواک باشد! ✍️علیرضا محمدلو، تحلیلگر رسانه و علوم اجتماعی لینک مطلب: http://www.andishkadeboshra.ir/1401/07/06/1-13/ 🌐کانال عصرجدید،‌ عصررسانه 🆔@andisheengelabi
🔎مثلث گوگل، بی‌بی‌سی، "وی پی ان" در خط آشوب ✍ناآرامی های اخیر با مدیریت می‌شود. علاوه بر اینکه مشغول هشتگ‌سازی توییتری و استوری‌های اینستاگرامی هستند، هماهنگی میان آشوبگران و تسهیل فعالیت میدانی‌شان و سوژه برخورد را هم در فضاهایی چون گوگل و با حمایت تمام قد‌ رسانه های معاند شاهد هستیم. 🆔@abdisheengelabi
6.04M حجم رسانه بالاست
مشاهده در ایتا
🎥 ترندها در شبکه‌های اجتماعی چگونه دستکاری می‌شوند؟ 🆔@asre_tabyin
🚦ابراز نگرانی هنری کیسینجر از توسعه هوش مصنوعی 🔸هنری کیسینجر، وزیر امور خارجه آمریکا در دوره ریچارد نیکسون و جرالد فورد و نویسنده کتاب نظم جهانی، بر این باور است که سیستم‌های به سبک «ChatGPT» می‌توانند آگاهی انسان را نابود کنند، موج جدیدی از عرفان‌های مذهبی فناورانه به وجود بیاورند و اساساً واقعیت را تغییر دهند. 🔸متن کامل را در [زاویه](https://zaviehmag.ir/?p=5078) بخوانید. 🆔@asre_Tabyin
44.35M حجم رسانه بالاست
مشاهده در ایتا
💠آینده هوش مصنوعی و سبقت از انسان و کاربر را جدی بگیریم 🔸هوش مصنوعی محدود یا Narrow AI 🔸هوش مصنوعی عمومی یا General AI 🔸هوش مصنوعی برتر یا Super AI 🔹الان در مرحله دوم قرار داریم و هوش مصنوعی توانایی این را دارد که چطور و به چه چیزی فکرکند. پیش بینی میشود تا سال 2029 از این مرحله عبور کنیم و به هوش مصنوعی برتر برسیم. 🆔@asre_tabyin
🔶 چیست و چگونه کار میکند؟/ همه چیز درباره هوش مصنوعی؛ از تاریخچه تا کاربرد 📍هوش مصنوعی در واقع است که به نحوی قابلیت تفکر دارد. البته این قابلیت تفکر با چیزی که ما به عنوان تفکر انسانی می‌شناسیم تا حد زیادی تفاوت دارد. ▶️هوش مصنوعی چیست؟ 🔸خیلی از افراد هنوز هم با شنیدن واژه هوش مصنوعی به ها فکر میکنند و تصور میکنند که منظور از هوش مصنوعی همان ربات های بی احساسی هستند که برای انجام راحت تر کارها طراحی شده‌اند و قرار است در آینده جای انسان ها را بگیرند. مسئول این نوع تفکر به احتمال زیاد فیلم های علمی و تخیلی است اما واقعیت با آنچه که تصور می شود تفاوت دارد. 🔖هوش مصنوعی به انگلیسی Artificial intelligence که به طور مخفف آن را AI نیز می‌نامند، در واقع تکنولوژی است که به نحوی قابلیت تفکر دارد. البته این قابلیت تفکر با چیزی که ما به عنوان تفکر انسانی می‌شناسیم تا حد زیادی تفاوت دارد، اما در حقیقت سعی دارد تا از آن تقلید کند. 📌مشاهده کامل در لینک زیر 🌐http://amir-sadeghi.com/post/16 🌐عصر تبیین، عصر رسانه 🆔@asre_tbyin
🎯 شما طوطی نيستيد، چت‌جی‌پی‌تی هم انسان نيست 🔴 معمولاً اینطور تصور می‌کنیم که ربات‌ها هر چه در حرکات، واکنش‌ها یا جواب‌هایشان به رفتار طبیعی یک انسان واقعی نزدیک‌تر شوند، ربات‌های بهتر یا پیشرفته‌تری محسوب می‌شوند. بنابراین سازندگان ربات‌ها تمایل فراوانی به هر چه شبیه‌تر کردن ساخته‌هایشان به انسان‌ها دارند. بااین‌حال، بسیاری از متخصصان اخلاق فناوری دربارۀ این موضوع تردید دارند. آیا واقعاً خوب است که مرز میان انسان‌ها و ربات‌ها کمرنگ شوند؟ انسان فرض‌کردن ربات‌ها دقیقاً چه پیامدهایی یا آسیب‌هایی را می‌تواند به دنبال بیاورد؟ 🔴 این موضوع وقتی پیچیده‌تر می‌شود که بدانیم در میان ما آدم‌ها نیز تمایلِ زیادی برای «انسان‌وار» قلمداد کردن موجودات غیرانسانی وجود دارد، چه پای حیوانات در میان باشد، چه ربات‌ها یا حتی عروسک‌ها و مجسمه‌ها. 🔴 این روزها با فراگیرشدن بحث از چت جی‌پی‌تی و توانایی‌های خارق‌العادۀ زبانی آن، این مسئله بار دیگر به میان آمده است: امیلی بِندِر، زبان‌شناس مشهوری که یکی از خبره‌ترین متخصصانِ کاربرد زبان در هوش‌های مصنوعی است، می‌پرسد: چرا باید مثل آدم‌های معمولی حرف بزند؟ آیا چنین قابلیتی، به جز «فریب‌دادن» کاربران فایدۀ دیگری هم دارد؟ بِندر می‌نویسد: فرض ما این است که وقتی کسی حرف می‌زند، قصد دارد پیامی به ما منتقل کند و مسئولیت حرفش را هم می‌پذیرد، اما ربات‌ها درکی از حرفی که می‌زنند و پیامدهایش ندارند. 🔴 «ما دنیا را تغییر داده‌ایم. ما یاد گرفته‌ایم ماشین‌هایی بسازیم که به‌طور مکانیکی متن تولید کنند. اما هنوز یاد نگرفته‌ایم که چطور بین ماشین و ذهن انسان تمایز قائل شویم». 🔴 از نظر بِندِر «چت‌بات‌هایی که ما به‌راحتی آن‌ها را با انسان اشتباه می‌گیریم، صرفاً بامزه یا اعصاب‌‌خردکن نیستند.» بلکه مبهم‌شدن مرز میان ربات و انسان، می‌تواند آسیب‌های جدی در بر داشته باشد. یا اساساً منجر به از هم گسستن جامعه شود. یکی از مثال‌های ساده‌اش، مسئلۀ «انسان‌های جعلی» است. دنیل دنت، فیلسوف مشهور، می‌نویسد: ما نمی‌توانیم در دنیایی با «افراد جعلی» زندگی کنیم. از وقتی پول وجود داشته، جعل پول نوعی خراب‌کاری اجتماعی قلمداد می‌شد که مجازات آن اعدام، درآوردن احشاء و شقه‌شقه‌کردن بود. بحث هم دست‌کم به همین اندازه جدی است. 🔴 از نظر دنت رباتی که می‌تواند مثل یک انسان حرف بزند، فقط یک قدم تا سلاح خطرناکی که در جنگ‌های بیولوژیک یا هسته‌ای می‌تواند به کار گرفته شود، فاصله دارد. 🔴 بِندِر می‌گوید من یک قانون دارم: «کمرنگ‌کردن مرزها ممنوع!» اگر این قانون را بپذیرید، آنگاه خیلی راحت‌تر می‌توانید از شرکت‌های بزرگ تکنولوژی که برای توسعۀ هر چه بیشتر سر و دست می‌شکنند، بپرسید: این کارها برای چیست؟ اگر این ابزارها ساخته می‌شوند تا زندگی ما انسان‌ها را راحت‌تر کنند، پس چرا اصرار دارید آن‌ها را مثل دیگر انسان‌ها ببینیم؟ به آن‌ها علاقه‌مند و وابسته شویم؟ یا وقتی آن‌ها را از دست می‌دهیم، فکر کنیم یک دوست را از دست داده‌ایم؟ چرا ابزارها را در قلمرویی آن‌سوی انسانیت نگه نمی‌دارید؟ 📌 ادامۀ مطلب را در لینک زیر بخوانید: https://B2n.ir/t19517 🆔 @asre_tabyin
🎯 هوش مصنوعی احمق است، اما به‌شکلی قانع‌کننده — هوش مصنوعی به شکل فعلی‌اش بیشتر است تا ، و بیشتر مبتذل است تا پیشرو 📍سال ۲۰۲۳، سال هوش مصنوعی بود. سالی که هر بار را باز می‌کردی، با تصاویر عجیب و غریب، توهمی یا آخرالزمانی‌ای مواجه می‌شدی که ساخته بود. یا داستان‌های پر شور و شوقی می‌شنیدی که چه‌کارهایی از چت جی‌پی‌تی برمی‌آید. اما کسانی که تحولات هوش مصنوعی را جدی‌تر دنبال می‌کردند، انگار به این خلاقیت‌ها چندان خوش‌بین نبودند. جیمز برایدل، در این مقالۀ مفصل توضیح می‌دهد که چرا برخی از رایج‌ترین تصورات دربارۀ هوش مصنوعی، در واقع، سراپا غلط‌اند. 🔖 ۴۸۰۰ کلمه ⏰ زمان مطالعه: ۳۰ دقيقه                                         📌 ادامۀ مطلب را در لینک زیر بخوانید: B2n.ir/d76239 🆔 @asre_tabyin
🎯 مجبور نیستیم هر فناوری جدیدی را به زندگی خود راه دهیم — «انتخاب‌گرایی فناوری» چیست و چه تفاوتی با بدبینی به فناوری دارد؟ 📍نیل پستمن، نظریه‌پرداز برجستهٔ ارتباطات، در سال ۱۹۹۲ گفت که ما در عصر «تکنوپولی» زندگی می‌کنیم. به اعتقاد او، ذهنیت پس از دورهٔ تکنوکراسی رواج یافته و اکنون «همۀ ابعاد حیات فرهنگی ما تسلیم حاکمیت مطلق تکنیک و فناوری» شده است. اما مفهوم «تکنوپولی» یعنی چه؟ ارتباط آن با رسانه‌های اجتماعی و فناوری چیست؟‌ و آیا راهی برای گریز از این حاکمیت مطلق تکنیک و فناوری وجود دارد؟ 🔖 ۳۰۴۴ کلمه ⏰ زمان مطالعه: ۱۷ دقيقه 📌 ادامۀ مطلب را در لینک زیر بخوانید: B2n.ir/x92115 🆔@asre_tabyin
Revayat- 9.mp3
زمان: حجم: 18.9M
📻 / برنامه نقد و نظر 🔻با موضوع‌ 🔸؛ آینده پژوهی روایت‌ها(۱) ▫️تفات رویکردهای تکنوفیلی و تکنوفوبیایی ▫️اینترنت اشیاء و واقعیت مجازی ▫️آینده موسوم به قفس آهنین یا بهشت از قاب فرهنگ ▫️آینده فناوری ها و سلطه هولوگرافیک 🔻کارشناسان برنامه؛ 🔹حجت الاسلام‌ محمد کهوند 🔹حجت الاسلام علیرضامحمدلو 🔻پخش زنده برنامه؛ سه‌شنبه‌ ها ساعت ۱۴:۵۰ از موج FM ردیف ۹۶ مگا هرتز 🆔 @asre_tabyin
🔺 ۱۰ اصل طلایی برای تحلیل خبر : ۱. منبع‌شناسی هوشمند: همیشه مالکیت رسانه، سوابق و جهت‌گیری‌هایش را ردیابی کنید. ۲. چندمنبعی بودن: هر خبر را حداقل از ۳ منبع مستقل (با خط‌مشی‌های متفاوت) بررسی کنید. ۳. تکنیک «پرسش ۵ چرا»: برای هر خبر از خود بپرسید: «چه کسی سود می‌برد؟» و «چرا اینجا و الان؟» ۴. زمان‌بندی را کنید: انتشار خبر در تعطیلات یا ساعات خاص = احتمال دستکاری بالا. ۵. تصاویر/ویدئوها را معکوس جستجو کنید تا تاریخ و مکان واقعی را بیابید. ۶. تحلیل واژگان: کلمات احساس‌برانگیز (تروریست/شهید، آشوب/اعتراض) نشانه است. ۷. آمارها را شکست دهید: نمودارهای قطع‌شده یا مقیاس‌های نامتعارف اغلب گمراه‌کننده‌اند. ۸. دنبال «خبرهای مفقوده» بگردید: چه بخشی از ماجرا عمداً حذف شده؟ ۹. را شناسایی کنید: محتوای ساخته‌شده با AI (مثل Deepfake) اغلب ایرادات جزئی در سایه‌ها یا نبض صدا دارد. ۱۰. هر تحلیل باید «نقاط خاکستری» را بپذیرد: واقعیت‌ها معمولاً مطلق نیستند! 🔴 تحلیلگر حرفه‌ای مانند یک عمل می‌کند هر خبر را «کالبدشکافی» می‌کند، نه سطحی بخواند! 🆔@asre_tabyin