لطفا در ایتا مطلب را دنبال کنید
مشاهده در پیام رسان ایتا
💬از هوش مصنوعی چه میدانید؟
🔸آیا هوش مصنوعی بر انسان مسلط خواهد شد؟
🔹الگوریتم ها چگونه خود را بهتر میکنند و هدفشان چیست؟
#هوش_مصنوعی
#کنترل_سیستمی
#یادگیری_ماشینی
🌐کانال عصر جدید،عصر رسانه
🆔 @andisheengelabi
#سلبریتی_شناسی (۲)؛
🔎سلبریتی ها، حباب اطلاعاتی و تله پژواک!
🔸اینروزها شاهد هستیم که برخی سلبریتی های فوتبالیست و بازیگر و...، علی رغم مشاهده راهپیمایی میلیونی مردم علیه آشوبها همچنان بصورت سریالی بر طبل اغتشاش کوبیده و عبارتی را تکرار میکنند که "کنار مردم هستیم". اما چرا؟
🔹حباب اطلاعاتی اصطلاحی است مبتنی بر یک #الگوریتم در فضای مجازی که کاربران شبیه را به همدیگر نزدیک تر نشان داده و برای همدیگر پیشنهاد میدهد. در واقع بر اساس #هوش_مصنوعی حاکم بر پلتفرم ها، هیچ پلتفرم خنثی و بیطرف نداریم.
🔸پلتفرم های خارجی مثل اینستاگرام و توییتر و...کاربران را بر اساس نوع علاقمندی و ذائقه و سیر و سلوک مجازی شان در محاصره کاربران شبیه خود قرار داده و یک پژواک و #میدان_دیدن_کانالیزه_شدهای را رقم می زنند که باعث فریب کاربران شده و تمام محیط را شبیه خودشان تلقی میکنند.
🔹این #خطای_شناختی باعث می شود که افراد مبتنی بر ذائقه و گذشته و حال و آرزوهای خاصی که دارند، محیطی مجازی و گاها تخیلی را برای خود رقم زده و با افرادی در ارتباط باشند که «نظرات و حرفهای آنها» را تکرار یا تایید میکنند.
🔸خطای محاسباتی که افراد نزدیک خود را تمام محیط و #همه_مردم تشخیص میدهند و کنشگری های افراد را دچار اختلال جدی می کنند. خصوصا اگر میزان فالوورها بیشتر باشد، پژواک عمیق تری را بدلیل تایید و لایک های بیشتر شکل داده و میزان خطاپذیری افزایش می یابد.
🔹فارغ از سوگیرهای سیاسی عده ای از افراد و امنیتی شدن پُست ها و استوری هایشان، در خیلی از موارد بدلیل همین الگوریتم حاکم بر فضای مجازی شاهد هستیم که عبارتی بنام #در_کنار_مردم_هستیم تکرار شده و تبدیل به کلیشه و شعار می شود.
🔸اما اینکه کدام مردم را اراده میکنند و چرا قادر به دیدن مردم میدان انقلاب و حضور میلیونی شان در سراسر کشور علیه آشوب ها نیستند، چه بسا ناشی از واقعیتی بنام حباب اطلاعاتی و تله پژواک باشد!
✍️علیرضا محمدلو، تحلیلگر رسانه و علوم اجتماعی
لینک مطلب: http://www.andishkadeboshra.ir/1401/07/06/1-13/
🌐کانال عصرجدید، عصررسانه
🆔@andisheengelabi
🔎مثلث گوگل، بیبیسی، "وی پی ان" در خط آشوب
✍ناآرامی های اخیر با #هوش_مصنوعی مدیریت میشود. علاوه بر اینکه مشغول هشتگسازی توییتری و استوریهای اینستاگرامی هستند، هماهنگی میان آشوبگران و تسهیل فعالیت میدانیشان و سوژه برخورد را هم در فضاهایی چون گوگل و #فیلترشکنها با حمایت تمام قد رسانه های معاند شاهد هستیم.
🆔@abdisheengelabi
6.04M حجم رسانه بالاست
مشاهده در ایتا
🎥 ترندها در شبکههای اجتماعی چگونه دستکاری میشوند؟
#هوش_مصنوعی
#الگوریتم
#ربات
#اغتشاش
🆔@asre_tabyin
🚦ابراز نگرانی هنری کیسینجر از توسعه هوش مصنوعی
🔸هنری کیسینجر، وزیر امور خارجه آمریکا در دوره ریچارد نیکسون و جرالد فورد و نویسنده کتاب نظم جهانی، بر این باور است که سیستمهای #هوش_مصنوعی به سبک «ChatGPT» میتوانند آگاهی انسان را نابود کنند، موج جدیدی از عرفانهای مذهبی فناورانه به وجود بیاورند و اساساً واقعیت را تغییر دهند.
🔸متن کامل را در [زاویه](https://zaviehmag.ir/?p=5078) بخوانید.
🆔@asre_Tabyin
44.35M حجم رسانه بالاست
مشاهده در ایتا
💠آینده هوش مصنوعی و سبقت از انسان و کاربر را جدی بگیریم
🔸هوش مصنوعی محدود یا Narrow AI
🔸هوش مصنوعی عمومی یا General AI
🔸هوش مصنوعی برتر یا Super AI
🔹الان در مرحله دوم قرار داریم و هوش مصنوعی توانایی این را دارد که چطور و به چه چیزی فکرکند.
پیش بینی میشود تا سال 2029 از این مرحله عبور کنیم و به هوش مصنوعی برتر برسیم.
#هوش_مصنوعی
🆔@asre_tabyin
🔶#هوش_مصنوعی چیست و چگونه کار میکند؟/ همه چیز درباره هوش مصنوعی؛ از تاریخچه تا کاربرد
📍هوش مصنوعی در واقع #تکنولوژی است که به نحوی قابلیت تفکر دارد. البته این قابلیت تفکر با چیزی که ما به عنوان تفکر انسانی میشناسیم تا حد زیادی تفاوت دارد.
▶️هوش مصنوعی چیست؟
🔸خیلی از افراد هنوز هم با شنیدن واژه هوش مصنوعی به #ربات ها فکر میکنند و تصور میکنند که منظور از هوش مصنوعی همان ربات های بی احساسی هستند که برای انجام راحت تر کارها طراحی شدهاند و قرار است در آینده جای انسان ها را بگیرند. مسئول این نوع تفکر به احتمال زیاد فیلم های علمی و تخیلی است اما واقعیت با آنچه که تصور می شود تفاوت دارد.
🔖هوش مصنوعی به انگلیسی Artificial intelligence که به طور مخفف آن را AI نیز مینامند، در واقع تکنولوژی است که به نحوی قابلیت تفکر دارد. البته این قابلیت تفکر با چیزی که ما به عنوان تفکر انسانی میشناسیم تا حد زیادی تفاوت دارد، اما در حقیقت سعی دارد تا از آن تقلید کند.
📌مشاهده کامل در لینک زیر
🌐http://amir-sadeghi.com/post/16
🌐عصر تبیین، عصر رسانه
🆔@asre_tbyin
🎯 شما طوطی نيستيد، چتجیپیتی هم انسان نيست
🔴 معمولاً اینطور تصور میکنیم که رباتها هر چه در حرکات، واکنشها یا جوابهایشان به رفتار طبیعی یک انسان واقعی نزدیکتر شوند، رباتهای بهتر یا پیشرفتهتری محسوب میشوند. بنابراین سازندگان رباتها تمایل فراوانی به هر چه شبیهتر کردن ساختههایشان به انسانها دارند. بااینحال، بسیاری از متخصصان اخلاق فناوری دربارۀ این موضوع تردید دارند. آیا واقعاً خوب است که مرز میان انسانها و رباتها کمرنگ شوند؟ انسان فرضکردن رباتها دقیقاً چه پیامدهایی یا آسیبهایی را میتواند به دنبال بیاورد؟
🔴 این موضوع وقتی پیچیدهتر میشود که بدانیم در میان ما آدمها نیز تمایلِ زیادی برای «انسانوار» قلمداد کردن موجودات غیرانسانی وجود دارد، چه پای حیوانات در میان باشد، چه رباتها یا حتی عروسکها و مجسمهها.
🔴 این روزها با فراگیرشدن بحث از چت جیپیتی و تواناییهای خارقالعادۀ زبانی آن، این مسئله بار دیگر به میان آمده است: امیلی بِندِر، زبانشناس مشهوری که یکی از خبرهترین متخصصانِ کاربرد زبان در هوشهای مصنوعی است، میپرسد: چرا #چت_جیپیتی باید مثل آدمهای معمولی حرف بزند؟ آیا چنین قابلیتی، به جز «فریبدادن» کاربران فایدۀ دیگری هم دارد؟ بِندر مینویسد: فرض ما این است که وقتی کسی حرف میزند، قصد دارد پیامی به ما منتقل کند و مسئولیت حرفش را هم میپذیرد، اما رباتها درکی از حرفی که میزنند و پیامدهایش ندارند.
🔴 «ما دنیا را تغییر دادهایم. ما یاد گرفتهایم ماشینهایی بسازیم که بهطور مکانیکی متن تولید کنند. اما هنوز یاد نگرفتهایم که چطور بین ماشین و ذهن انسان تمایز قائل شویم».
🔴 از نظر بِندِر «چتباتهایی که ما بهراحتی آنها را با انسان اشتباه میگیریم، صرفاً بامزه یا اعصابخردکن نیستند.» بلکه مبهمشدن مرز میان ربات و انسان، میتواند آسیبهای جدی در بر داشته باشد. یا اساساً منجر به از هم گسستن جامعه شود. یکی از مثالهای سادهاش، مسئلۀ «انسانهای جعلی» است. دنیل دنت، فیلسوف مشهور، مینویسد: ما نمیتوانیم در دنیایی با «افراد جعلی» زندگی کنیم. از وقتی پول وجود داشته، جعل پول نوعی خرابکاری اجتماعی قلمداد میشد که مجازات آن اعدام، درآوردن احشاء و شقهشقهکردن بود. بحث #افراد_جعلی هم دستکم به همین اندازه جدی است.
🔴 از نظر دنت رباتی که میتواند مثل یک انسان حرف بزند، فقط یک قدم تا سلاح خطرناکی که در جنگهای بیولوژیک یا هستهای میتواند به کار گرفته شود، فاصله دارد.
🔴 بِندِر میگوید من یک قانون دارم: «کمرنگکردن مرزها ممنوع!» اگر این قانون را بپذیرید، آنگاه خیلی راحتتر میتوانید از شرکتهای بزرگ تکنولوژی که برای توسعۀ هر چه بیشتر #هوش_مصنوعی سر و دست میشکنند، بپرسید: این کارها برای چیست؟ اگر این ابزارها ساخته میشوند تا زندگی ما انسانها را راحتتر کنند، پس چرا اصرار دارید آنها را مثل دیگر انسانها ببینیم؟ به آنها علاقهمند و وابسته شویم؟ یا وقتی آنها را از دست میدهیم، فکر کنیم یک دوست را از دست دادهایم؟ چرا ابزارها را در قلمرویی آنسوی انسانیت نگه نمیدارید؟
📌 ادامۀ مطلب را در لینک زیر بخوانید:
https://B2n.ir/t19517
🆔 @asre_tabyin
🎯 هوش مصنوعی احمق است، اما بهشکلی قانعکننده
— هوش مصنوعی به شکل فعلیاش بیشتر #کلیشه است تا #خلاق، و بیشتر مبتذل است تا پیشرو
📍سال ۲۰۲۳، سال هوش مصنوعی بود. سالی که هر بار #شبکههای_اجتماعی را باز میکردی، با تصاویر عجیب و غریب، توهمی یا آخرالزمانیای مواجه میشدی که #هوش_مصنوعی ساخته بود. یا داستانهای پر شور و شوقی میشنیدی که چهکارهایی از چت جیپیتی برمیآید. اما کسانی که تحولات هوش مصنوعی را جدیتر دنبال میکردند، انگار به این خلاقیتها چندان خوشبین نبودند. جیمز برایدل، در این مقالۀ مفصل توضیح میدهد که چرا برخی از رایجترین تصورات دربارۀ هوش مصنوعی، در واقع، سراپا غلطاند.
🔖 ۴۸۰۰ کلمه
⏰ زمان مطالعه: ۳۰ دقيقه
📌 ادامۀ مطلب را در لینک زیر بخوانید:
B2n.ir/d76239
🆔 @asre_tabyin
🎯 مجبور نیستیم هر فناوری جدیدی را به زندگی خود راه دهیم
— «انتخابگرایی فناوری» چیست و چه تفاوتی با بدبینی به فناوری دارد؟
📍نیل پستمن، نظریهپرداز برجستهٔ ارتباطات، در سال ۱۹۹۲ گفت که ما در عصر «تکنوپولی» زندگی میکنیم. به اعتقاد او، ذهنیت #تکنوپولی پس از دورهٔ تکنوکراسی رواج یافته و اکنون «همۀ ابعاد حیات فرهنگی ما تسلیم حاکمیت مطلق تکنیک و فناوری» شده است. اما مفهوم «تکنوپولی» یعنی چه؟ ارتباط آن با رسانههای اجتماعی و فناوری #هوش_مصنوعی چیست؟ و آیا راهی برای گریز از این حاکمیت مطلق تکنیک و فناوری وجود دارد؟
🔖 ۳۰۴۴ کلمه
⏰ زمان مطالعه: ۱۷ دقيقه
📌 ادامۀ مطلب را در لینک زیر بخوانید:
B2n.ir/x92115
🆔@asre_tabyin
Revayat- 9.mp3
زمان:
حجم:
18.9M
📻 #رادیو_معارف/ برنامه نقد و نظر
🔻با موضوع #عصر_روایتها
🔸#نشست_نهم؛ آینده پژوهی روایتها(۱)
▫️تفات رویکردهای تکنوفیلی و تکنوفوبیایی
▫️اینترنت اشیاء و واقعیت مجازی
▫️آینده موسوم به قفس آهنین یا بهشت #هوش_مصنوعی از قاب فرهنگ
▫️آینده فناوری ها و سلطه هولوگرافیک
🔻کارشناسان برنامه؛
🔹حجت الاسلام محمد کهوند
🔹حجت الاسلام علیرضامحمدلو
🔻پخش زنده برنامه؛ سهشنبه ها ساعت ۱۴:۵۰ از موج FM ردیف ۹۶ مگا هرتز
#جنگ_روایتها
#سواد_رسانه
🆔 @asre_tabyin
🔺 ۱۰ اصل طلایی برای تحلیل خبر :
۱. منبعشناسی هوشمند: همیشه مالکیت رسانه، سوابق و جهتگیریهایش را ردیابی کنید.
۲. چندمنبعی بودن: هر خبر را حداقل از ۳ منبع مستقل (با خطمشیهای متفاوت) بررسی کنید.
۳. تکنیک «پرسش ۵ چرا»: برای هر خبر از خود بپرسید: «چه کسی سود میبرد؟» و «چرا اینجا و الان؟»
۴. زمانبندی را #رمزگشایی کنید: انتشار خبر در تعطیلات یا ساعات خاص = احتمال دستکاری بالا.
۵. تصاویر/ویدئوها را معکوس جستجو کنید تا تاریخ و مکان واقعی را بیابید.
۶. تحلیل واژگان: کلمات احساسبرانگیز (تروریست/شهید، آشوب/اعتراض) نشانه #چارچوبسازی_رسانه است.
۷. آمارها را شکست دهید: نمودارهای قطعشده یا مقیاسهای نامتعارف اغلب گمراهکنندهاند.
۸. دنبال «خبرهای مفقوده» بگردید: چه بخشی از ماجرا عمداً حذف شده؟
۹. #هوش_مصنوعی را شناسایی کنید: محتوای ساختهشده با AI (مثل Deepfake) اغلب ایرادات جزئی در سایهها یا نبض صدا دارد.
۱۰. هر تحلیل باید «نقاط خاکستری» را بپذیرد: واقعیتها معمولاً مطلق نیستند!
🔴 تحلیلگر حرفهای مانند یک #پاتولوژیست_خبر عمل میکند هر خبر را «کالبدشکافی» میکند، نه سطحی بخواند!
🆔@asre_tabyin