سلام آرمانی ها❤️🌻✨
امشب قراره سه تا کلیپ جذاب رو با هم ببینیم😍
1⃣ تقلید صدا با هوش مصنوعی
2⃣ گسترش تصویر با هوش مصنوعی
3⃣ ربات های انسان نمای هوش مصنوعی
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
10.8M حجم رسانه بالاست
مشاهده در ایتا
رباتهارفتنسرکار...🤯👀
🔺 ربات های انساننما سر کار رفته اند و شاغل شده اند!
🔺 رباتی که توسط شرکت 1X ساخته شده کارهای مختلفی مثل پرستاری و نگهبانی و انجام میده. به گزارش دیلیمیل، شرکت 1X حتی زودتر از تسلا، اولین ربات انساننمای واقعی را وارد بازار کرده.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
19.8M حجم رسانه بالاست
مشاهده در ایتا
💯 گسترش تصویر اینه بقیه اداشو در میارن😉
🔺یه بابایی برداشته تا ۵۷ مرحله یک عکس رو توسعه داده و مقایسهشون هم کرده
🔺 دستورات متنیشون رو هم میتونید ببینید و بگرخید
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
1M حجم رسانه بالاست
مشاهده در ایتا
‼️صدای شیرفرهاد رو آهنگ لانا دلری😁
🔺با هوش مصنوعی صدای مهران مدیری تو نقش شیرفرهاد در سریال شبهای برره گذاشتن رو آهنگ Summer time sadness لانا دلری!
🔺حالا نکته عجیب ماجرا اینه که از خود آهنگ اصلی قشنگتر دراومده😅
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
#ســـــــــــــــــــــــــلام!
❌ امروز قراره درباره خطرات هوش مصنوعی در زمینه حریم خصوصی صحبت کنیم ❌
حتما مطالب امروز رو ببینید!!
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
✔️ دیپ فیک!
یکی از(فقط یکی از) ابزار هایی که امروز در دسترس عموم مردم قرار داره و حالا با استفاده از هوش مصنوعی هرکسی میتونه فیلم های جعلی از شما بسازه...
❎ قبلاً نمونه هایی از تغییر صدا با هوش مصنوعی رو دیده بودید مثل این صدای حاج قاسم که با هوش مصنوعی ساخته شده یا این صدای شیرفرهاد ولی...
همه اینا در جهت درست استفاده شده ولی چه تضمینی وجود داره که در جهت اشتباه استفاده نشه؟؟
:: علاوه بر جعل صدا، میشه تصویر شمارو جعل کرد!
❌ حتما فیلم های زیر رو ببینید ❌
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
908K حجم رسانه بالاست
مشاهده در ایتا
تو چند ثانیه با هوش مصنوعی میشه چهرت رو به چهره هر کسی تغییر بدی!!
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
1.1M حجم رسانه بالاست
مشاهده در ایتا
❌ اینم یه نمونه دیگه...
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
فکر کنید صبح شده و تمام دوستان و آشنایانتون بهتون مدام زنگ می زنند؛ تعجب می کنید و با خودتون می گین مگه چی شده؟! در همین حین، باز گوشیتون زنگ می خوره! گوشی رو بر می دارید و هنوز سلام نکرده بهتون از پشت خط کلی بد و بیاره میگن و بعد قطع می کنن! چند لحظه ای حسابی تو کُپ می رین و به خودتون می گین مگه امکان داره؟ من که دیشب کلا خواب بودم!
در کمال ناباوری می رید تو اکسپلورر اینستاگرامتون و می بینید یه کلیپ از شما ترند شده! کلی حرف های عجیب و غریب توش زدین؛ کلا هَنگ می کنید! نمی دونید چطوری اثبات کنید اون فیلم شما نیستید!!
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
💢 جلوی خیلی از این فیلم ها و صداهارو نمیشه گرفت ولی 💢
✅ شنبه قراره چندنکته کاربردی به شما بگیم که احتمال گرفتار شدن شما خیلی خیلی کمتر بشه!
☑️ شنبه منتظر ما باشید.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
سلام🌱
ولادت امام باقر «ع» مبارک🌹
✅ بریم همونطور که گفتیم درباره دیپ فیک و راه های جلوگیری از اون صحبت کنیم
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
تو پیام های قبلی گفتیم که دیپ فیک چیه و چه کارهایی میتونه انجام بده
❌ حالا میخوام بهتون بگم که چه آسیب هایی داره ❌
1️⃣ سوء استفاده در حریم خصوصی: با استفاده از دیپ فیک، ممکن است افراد بدون اجازه در موقعیتها یا فعالیتهایی نشان داده شوند که واقعی نیست و به حریم خصوصی آنها آسیب میرساند.
2️⃣ تاثیر منفی بر اعتماد عمومی: وقتی مردم نمیتوانند به صحت تصاویر و ویدئوهایی که میبینند اطمینان داشته باشند، اعتماد عمومی به رسانهها و اطلاعات کاهش مییابد.
3️⃣ استفاده در جرائم سایبری: دیپ فیک میتواند برای اهداف جنایی مانند اخاذی، کلاهبرداری یا تهدید استفاده شود. تصور کنید، تلفن حسابدار شرکت زنگ میخوره و مدیر اون شرکت میگه که 2 میلیارد تومان به فلان شماره کارت بفرست. بعد از واریز پول مشخص میشه اونی که پشت تلفن بوده اصلا مدیرعامل نبوده و با استفاده از هوش مصنوعی صدای مدیرعامل رو تقلید کرده.
4️⃣ گمراهکننده و تحریف اطلاعات: دیپ فیک میتواند برای ایجاد اطلاعات نادرست یا گمراهکننده استفاده شود. این مسئله میتواند در زمینههای سیاسی، رسانهای و اجتماعی تاثیرات منفی داشته باشد.
5️⃣ سیاست: در برخی موارد، دیپ فیکها برای تحریف صحبتها یا اعمال سیاستمداران استفاده شدهاند. برای مثال، ویدئوهایی که در آنها سیاستمداران چیزهایی را میگویند یا انجام میدهند که واقعاً هرگز اتفاق نیفتاده، میتواند برای تأثیرگذاری منفی بر رأی دهندگان یا تخریب شخصیت افراد استفاده شود.
6️⃣ تبلیغات و بازاریابی: در مواردی، تکنیکهای دیپ فیک برای ساخت تبلیغات استفاده میشود که شخصیتهای مشهور را در موقعیتهایی نشان میدهند که واقعاً در آن قرار نگرفتهاند. این ممکن است بدون رضایت افراد مورد نظر انجام شود و به شهرت و اعتبار آنها آسیب بزند.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید