eitaa logo
روابط عمومی پلیس نیشابور
1.3هزار دنبال‌کننده
12هزار عکس
5.2هزار ویدیو
35 فایل
💠﷽💠 🇮🇷كونوا قَوّامينَ لِلَّهِ شُهَداءَ بِالقِسطِ🇮🇷 . 👈کانال روابط عمومی پلیس نیشابور . 👈مرجع رسمی اخبار انتظامی، پلیسی و اجتماعی . 👈باما اخبار را بروز، سریع و دقیق دریافت کنید! . 👈وبسايت خبری فراجا: news.police.ir . 👈ارتباط با پلیس: @sardarmz
مشاهده در ایتا
دانلود
🇮🇷﷽🇵🇸 📝 هوش مصنوعی و حکمرانی آينده 🍃🌹🍃 🔻مسئله نخست: شناخت هوش مصنوعی است. هرگاه در برهه‌های تاریخ مان چه پیش از انقلاب و چه پس از انقلاب با فناوری، مواجهه دقیق، عمیق و عالمانه نداشتیم به نوعی ضرر کردیم، باید مسئله را به خوبی بشناسیم، مواجهه‌ها را در آن تحلیل کنیم. ذینفعان آن را بشناسیم ،سپس درباره آن حکم بدهیم. 🔸اگر هوش مصنوعی چند گام جلوتر از امروزی که هست باشد وضعیت علم و فناوری در کشور ما به چه سطحی خواهد رسید؟ وضعیت حکمرانی به چه سطحی خواهد رسید؟ یعنی باید مشخص شود اگر هوش مصنوعی جزء مسائل پیشران کشور خواهد بود به طور طبیعی یک اهتمام ویژه‌ای باید به آن داشته باشیم. 🔺مسئله دوم اتخاذ راهبرد و مدل مواجهه، ترسیم بایسته‌ها و موانع پیش رو می‌باشد. که با شناخت آن، به طور معمول باید راهبرد و مدل مواجه مان با آن را طراحی کنیم. پس باید به زمینه‌های توسعه هوش مصنوعی در کشورمان فکر کنیم و بایسته‌ها و موانع پیش روی را ترسیم کنیم. ❌ ادامه دارد ... ✍ محمدرضا قاسمی |
3.74M حجم رسانه بالاست
مشاهده در ایتا
🇮🇷🇵🇸 🇮🇷 🇮🇷 🍃🌹🍃 🔰روایتگران پیشرفت، دستاوردهای انقلاب را توسط به تصویر کشیده‌اند. 🇮🇷روابط عمومی پلیس شهرستان نیشابور🇮🇷 ⬇️ به ما بپیوندید👇 🛃➡️ @ravabetomomi_neyshabour
2.59M حجم رسانه بالاست
مشاهده در ایتا
📣 هوشیار باشید و فریب مجرمان سایبری از طریق تقلید صدا رو نخورید! 📌 کلاهبرداری‌های صوتی با هوش مصنوعی، با تقلید صدای واقعی افراد، به تهدیدی جدی تبدیل شده‌اند. ⭕️ آنها با بهره‌گیری از مدل‌های پیشرفته صوتی هوش مصنوعی، صداهای اعضای خانواده یا افراد معتمد را شبیه‌سازی می‌کنند و قربانیان را برای افشای اطلاعات حساس فریب می‌دهند. ✅ راهکارهای تشخیص و پیشگیری از کلاهبرداری صوتی: 1⃣ به نشانه‌های ظریف مانند تاکید نامتناسب بر کلمات، لحن غیرطبیعی یا مکث‌های غیرعادی توجه کنید. 2⃣ با فرد مشکوک که قبلاً با شما تماس گرفته است جهت اطمینان مجددآ تماس حاصل نمایید.
2.59M حجم رسانه بالاست
مشاهده در ایتا
📣 هوشیار باشید و فریب مجرمان سایبری از طریق تقلید صدا رو نخورید! 📌 کلاهبرداری‌های صوتی با هوش مصنوعی، با تقلید صدای واقعی افراد، به تهدیدی جدی تبدیل شده‌اند. ⭕️ آنها با بهره‌گیری از مدل‌های پیشرفته صوتی هوش مصنوعی، صداهای اعضای خانواده یا افراد معتمد را شبیه‌سازی می‌کنند و قربانیان را برای افشای اطلاعات حساس فریب می‌دهند. ✅ راهکارهای تشخیص و پیشگیری از کلاهبرداری صوتی: 1⃣ به نشانه‌های ظریف مانند تاکید نامتناسب بر کلمات، لحن غیرطبیعی یا مکث‌های غیرعادی توجه کنید. 2⃣ با فرد مشکوک که قبلاً با شما تماس گرفته است جهت اطمینان مجددآ تماس حاصل نمایید.