eitaa logo
سواد رسانه و روانشناسی
191 دنبال‌کننده
3.4هزار عکس
1.6هزار ویدیو
49 فایل
سواد رسانه یکی از نیازهای دنیای مدرن است. با سواد رسانه و شناخت اصول روانشناسی به قدرت تحلیل مسلح شوید. برای ارتباط، پیشنهاد، انتقاد و... با شناسه مدیر تماس بگیرید. مدیر: @Vavgh01 #سواد_رسانه کانال حداقل "یک روز در هفته" به روز رسانی می شود.
مشاهده در ایتا
دانلود
🔻تقلید صدای یک مدیر شرکت با فناوری و سرقت۲۴۳ هزار دلاری یک کلاهبردار با استفاده از فناوری "deepfake" و نرم افزار ، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد. 👈بنابر گزارش Futurism، این فرد با استفاده از نرم‌افزار هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر را تقلید کرده و از مدیر زیرمجموعه در انگلیس خواسته تا طی یک ساعت مبلغی را به یک شرکت تهیه‌کننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت می‌شود. 👈مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگی‌های سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمی‌کند. اما نه تنها مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اگرچه این بار مدیر انگلیسی از انجام آن سرباز زد. 👈درنهایت مشخص شد مبلغی که به بلغارستان شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلامنتقلهبرداری سایبری هستند. طبق نوشته وال استریت ژورنال این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است.
بررسی اخلاقی دیپ فیک (Deepfake) یا جعل عمیق ✅ یا جعل عمیق، نوعی فناوری برای ترکیب تصویر انسان بر پایه هوش مصنوعی است که در جهت تولید یا تغییر محتوای ویدیویی استفاده می شود، تا ویدیو نمایانگر چیزی باشد که در واقع اصلاً اتفاق نیفتاده است. این شبیه سازی به هر کاربری قدرت می دهد که تصاویر یک شخص را بر روی شخص دیگر منطبق کند و یک ویدیوی را برای ترویج محتوای مورد نظر تولید کند. 🔸 این تکنولوژی کارکردهای اخلاقی مثبتی همچون صرفه جویی در مخارج را به وجود آورده است؛ مثلا دیگر نیازی نیست از بازیگران مشهور و گران قیمت استفاده شود و کافی است که بازیگران معمولی این نقش‌ها رو ایفا کنند و در نهایت با فناوری ؛ تصاویر بازیگران معروف را (با اجازه خودشان) بر روی آنها شبیه سازی شود. همچنین با این نرم افزار می توان افرادی که در میان ما نیستند و یا از دنیا رفته اند، شبیه سازی کرد و یاد و خاطره آنها زنده بماند. ♦️چالش های اخلاقی تکنولوژی دیپ فیک بسیار بیشتر از کارکردهای مثبت آن است. از جمله چالش ها اخلاقی این نرم افزار می توان به موارد ذیل اشاره کرد: 1- دشواری تشخیص حق از باطل: یکی از چالش های اخلاقی این نرم افزار این است که دیگر تشخیص حق از باطل بسیار سخت و دشوار می شود و می توان گفت با همگانی شدن این نرم افزار به دورانی می رسیم که دیگر نمی‌تواند حق و باطل را از هم تشخیص بدهیم. اگر امیرالمومنین علی (ع) معیار حق بودن را دیدن با چشم معرفی می کند و می فرماید: « باطل آن است که بگویی شنیدم، و حق آن است که بگویی دیده ام» (نهج البلاغه، خطبه 141) با ظهور دیپ فیک، دیگر نمی توان به این معیار در دیدن فیلم افراد اعتماد کرد. 2- از بین رفتن اعتماد: خطر دیگر این است که اعتماد افراد به یکدیگر از بین می رود. همچنین دیگر نمی توان به آن چه که انسان با دیده خود می بیند اعتماد کند. اگر در گذشته می‌گفتند تا چیزی را به چشم خودت ندیده‌ای، اعتماد و باور نکن! اما با ظهور دیپ فیک باید به همه چیز تردید کنیم که این منجر به از بین رفتن اعتماد افراد به همدیگر و بالاتر از آن از بین رفتن اعتماد افراد به دیدگان خود است. 3- ساخت اخبار جعلی و دروغ: با در اختیار داشتن این نرم افزار می توان یک سری اخبار جعلی و دروغ به ویژه از زبان افراد مهم و سیاسی ساخت که این می تواند پیامدهای منفی فراوانی همچون برهم زدن آرامش افراد و جامعه، تغییر دادن مسیر صحیح یک جامعه، بردن آبروی افراد و... به دنبال داسته باشد. 4- باورپذیری سریع: از آثار دیگر تکنولوژی جعل عمیق این است که افراد ممکن است با دیدن ویدیوهایی که با این تکنولوژی ساخته می شود، محتوای آن را سریع باور کنند و بدان اعتماد کنند؛ چرا که دیپ فیک به گونه ای فیلم افراد را می سازد که باور نکردن آن سخت و دشوار است. از آنجایی که باورپذیری سریع و بدون دلیل محکم، کاری پسندیده و صحیحی نیست، یکی از چالش های اخلاقی دیپ فیک باورپذیری سریع می باشد. 5- دزدی و کلاهبرداری: به راحتی می توان با شبیه سازی ، با ساخت یک فیلم که در آن از کارمندان یک شرکت یا افراد درخواست پول و یا چیزهای با ارزش دیگری کرد، که این منجر به دزدی و کلاهبرداری می گردد. 6- انتساب محتوای دروغ به افراد: به وسیله این نرم افزار، فرد در یک صحنه ای حاضر می‌شود و کاری را انجام می‌دهد و یا سخنی می زند، بدون اینکه روح آن فرد از آن محتوا خبر داشته باشد؛ که تمام این موارد مصداقی از دروغ می باشد. 7- نقض حریم خصوصی افراد: کسانی که عکس و فیلم های افراد را به عنوان داده به این نرم افزار می دهند و بعد از آن فیلمی دروغین منتسب به افراد می سازند، در حقیقت حریم خصوصی آن افراد را نقض می کنند؛ چرا که محتوایی را به افراد نسبت می دهند که افراد از آن بی خبر هستند و آن افراد رضایتی به آن محتوا و انتشار ان ندارند و با دیدن آن، ناراحت می شوند. 8- انتقام گیری از افراد: زمینه انتقام گیری و تصفیه حساب های شخصی را به راحتی برای افراد به وجود می آورد؛ به عنوان مثال کسی که قصد انتقام گیری از فردی داشته باشد، با به دست آوردن تصاویر آن فرد که در شبکه های مجازی به اشتراک گذاشته است، با ساخت فیلم پورن از آن فرد انتقام بگیرد. تکنولوژی دیپ فیک یا جعل عمیق چالش های اخلاقی دیگری نیز به دنبال خود دارد که اجمالا به آنها اشاره می شود: شایعه پردازی، تهمت و افتراء زنی، غیبت، تفرقه اندازی، تصمیم گیری غلط، قضاوت اشتباه و... .
🔸️الزامات مواجهه با اخبار و تصاویر و ویدئوهای جعلی | 🔹️الگویی برای روابط عمومی ها بخش نخست ✍ مریم سلیمی، پژوهشگر ارتباطی و مدرس سوادهای رسانه ای، خبری و بصری 🔹️خطر اخبار و تصاویر جعلی و از جمله دیپ فیک‌ ها یا ویدئوهای از پایه جعلی، فقط به افراد صاحب شهرتی همچون دولتمردان، سیاستمداران، سلبریتی ها و... محدود نبوده و به شدت سازمان‌ها، نهادها، ارگانها و... را نیز تهدید می کند. در این میان بیش از هر زمان، ضرورت هوشیاری روابط عمومی ها و فعالان این واحدها حس می شود. 🔹️خطر اخبار و تصاویر جعلی و از جمله دیپ فیکها یا ویدئوهای از پایه جعلی، فقط به افراد صاحب شهرتی همچون دولتمردان، سیاستمداران، سلبریتی ها و… محدود نبوده و به شدت سازمانها، نهادها، ارگانها و… را نیز تهدید می کند.در این میان بیش از هر زمان، ضرورت هوشیاری روابط عمومی ها و فعالان این واحدها حس می شود. 🔹️عدم امکان تشخیص جعلی یا واقعی بودن ویدئوها از سوی مخاطبان یا ذینفعان یک سازمان، می تواند گاه به آسیبهای جبران ناپذیری منجر شود که این آسیبها می توانند دامنه ای وسیع از عدم اعتماد به سازمان تا صدماتی در ابعاد امنیتی، اقتصادی، سیاسی، اجتماعی و… و حتی سلامتی روحی و جسمی را شامل شوند. برخی رسانه های اجتماعی در تلاش هستند که بتوانند ویدئوهای جعلی را با هشدارهایی به مخاطبان و کاربران بشناسانند. ولی به هر تقدیر در این حوزه یاری گرفتن از هوش مصنوعی، بهره گیری از اپلی کیشن ها (مانند Truepic) و سایتهای ویژه تشخیص فیلمها و ویدئوهای جعلی و نیز جستجوی معکوس می تواند یاری گر فرد در تشخیص این ویدئوهاست 🔹️🔹️اقدامات لازم 🔹️پیش از هر گونه مواجهه با اخبار و تصاویر جعلی، روابط عمومی ها نیازمند آن هستند تا اقداماتی را صورت دهند که از برخی در ادامه یاد می شود: 🔹️ارتقای سوادهای نوینی همچون سواد رسانه ای، خبری و بصری در فعالان حوزه روابط عمومی را باید ضروری دانست که در مسیر این مهم، برگزاری دوره هایی برای ارتقای این سوادها و آشنایی با تاکتیکها و تکنیکهای مربوطه و… می تواند اثرگذار باشد. 🔹️ارتباط موثر با مسئولان و کارشناسان واحدهای مختلف سازمانی و تعامل موثر با آنها و نیز داشتن بانک اطلاعات کامل از آنها از دیگر ضروریات است. 🔹️داشتن ارتباط و تعامل مناسب با سازمانها و واحدهای برون سازمانی به خصوص هم صنف و بهره مندی از بانک اطلاعاتی به روز، از جمله این الزامات است. 🔹️بهره مندی سامانه های مختلف ارتباط با مشتریان و…، برای ارسال پیامک یا هرگونه اقدام احتمالی در مواجهه با اخبار و تصاویر جعلی در صورت نیاز، ضروری است. 🔹️روابط عمومی ها در کنار ارتقای سوادهای خود باید موجبات ارتقای سوادهای رسانه ای، خبری و بصری مدیران، کارکنان، مشتریان و… را در قالبهای مختلف آموزشی، اطلاع رسانی و… فراهم کرده و توان تشخیص اخبار و تصاویر جعلی و غیرجعلی را در آنها ارتقا باشند تا این افراد بتوانند در مواجهه با اخبار و تصاویر جعلی احتمالی مرتبط با سازمان، عملکرد و واکنش بهتری داشته باشند. 🔹️در بحث تشخیص تصاویر جعلی می توانند توصیه هایی در خصوص بهره گیری از جستجوی معکوس، توجه دقیق به جزئیات، توجه به متن، زیرمتن و فرامتن، استفاده از نرم افزار های کنترل اصالت عکس و… داشته باشند. بهره مندی از ابزارها و امکانات روز رصد و نظارت بر اخبار و تصاویر و… و حتی ایجاد واحدی در روابط عمومی ها برای رصد و تحلیل داده ها به خصوص داده های بزرگ می تواند راهگشا باشد. 🔹️ارتباط موثر با رسانه ها و تعامل سازنده با آنها و نیز داشتن بانک اطلاعات جامع و کامل برای هرگونه تماسی در زمانهای لازم، از دیگر الزامات است/ شارا ادامه دارد
6.05M حجم رسانه بالاست
مشاهده در ایتا
ضریب اعتماد به دیدنی هایمان روز به روز در حال افول است... به دنیای فریب و زیبای خوش آمدید... شاید قرار است که دیگر جعل واقعیت یا بهتر بگویم به بخشی از زندگی آینده تبدیل شود...
7.13M حجم رسانه بالاست
مشاهده در ایتا
🔆 تکنولوژی قابل تامل و خطرناک 🎞 اولین موزیک‌ویدیوی ساخته‌شده با تکنیک در ایران، با صدای همایون شجریان و هنرنمایی چهره‌های جمعی از شخصیت های ایران زمین؛ از مصدق و ستارخان تا شهید آوینی و شهید چمران و .... 📹در تکنیک دیپ فیک (Deepfake) جعل عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. فن‌آوری جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد ، می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فن‌آوری دیپ‌فیک و پیامدهای آن به شدت ابراز نگرانی می‌کنند. 🤔با این حساب دیگر نمیتوان به هر کلیپی اطمینان کرد و سخنان منسوب به هر شخصی را باور کرد. 👥💬🗣 رسانه باشید و این مطلب را با دوستان خود به اشتراک بگذارید.
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
فیلم های فضای مجازی الزاما واقعی نیستند با فناوری های جدید، دیگر به آنچه در فیلم ها می‌بینید، اعتماد نکنید
❇️در خدمت آشوب 🔸دیپ فیک فناوریه که برای طیف وسیعی از اهداف، مانند جعل دستورات رهبران نظامی، ایجاد سردرگمی در میان مردم و نیروهای مسلح و مشروعیت بخشیدن به جنگ ها و قیام ها کاربرد داره. 🔹طبق بررسی اندیشکده بروکینگز، فناوری دیپ فیک ابزار مهمی برای پیشبرد آمریکا در جهانه که باید بهش توجه بشه. 🔸 با توجه به پیشرفتهای صورت گرفته مقامات امنیتی و اطلاعاتی در آمریکا و سایر دموکراسی‌ها انگیزه‌های قوی برای استفاده از دیپ فیک‌ها علیه دشمنان خود، به‌ویژه در زمینه درگیری‌های مسلحانه، خواهند داشت. 🔹 پیشنهاد اندیشکده بروکینگز اینه که با شناسایی ذینفعان استفاده از فناوری دیپ فیک هم افزایی صورت بگیره و بجای گزینه نظامی علیه کشورهای رقیب بکار گرفته بشه! 🔸 با توجه به اینکه فناوری دیپ فیک به محتوای صوتی و تصویری دست می‌بره و اون رو به شکل دلخواه تغییر می‌ده، در جنگ رسانه ای کاربرد وسیعی خواهد یافت. 🔄https://www.brookings.edu/research/deepfakes-and-international-conflict/ attacheeintl @resane_ravanshenasi