eitaa logo
دالان هوش مصنوعی ایران
1.9هزار دنبال‌کننده
310 عکس
187 ویدیو
3 فایل
دالان هوش مصنوعی ایران🇮🇷 (کانال اصلی رویدادها و آموزش های دالان هوش مصنوعی ایران) وظایف و اهداف داهوما: معرفی و حمایت از ظرفیت نخبگانی استان اصفهان در هوش مصنوعی ایجاد ارتباط بین کسب و کار و صنعت با نخبگان
مشاهده در ایتا
دانلود
ابرقدرت یعنی ... 👈یعنی ملتی که پس از موشک‌باران کردنِ صهیونیست‌ها... 👈در اوج تهدیدِ رسانه‌های صهیونیستی ... رئیس جمهورش در سفر رسمی به قطر می‌رود... 👈 وزیر خارجه‌اش با وجود خطرهای فراوان به لبنان سفر می‌کند..‌ ❤️ و.. رهبرش در نمازجمعه حاضر می‌شود و جمعیتی میلیونی پشت سرش به نماز می‌ایستند...❤️ سلام به نظم جدید در تمدن اسلامی .... اینجا جمهوری اسلامی ایران است🇮🇷... زنده باد ایران... زنده باد اتحاد و همدلی... زنده باد مردم خوب و نجیب ایران... جایتان خالی شهدای عزیز🌷🌷🌷 ‌ 🧠کانال دالان هوش مصنوعی ایران 🆔@Dahooma
6.2M حجم رسانه بالاست
مشاهده در ایتا
💥دانشمندان پایه‌گذار هوش مصنوعی، برنده جایزه نوبل فیزیک شدند. 💥جفری هینتون، پروفسور افتخاری دانشگاه تورنتو و جان هاپفیلد، پروفسور دانشگاه پرینستون، به‌دلیل پایه‌گذاری اساس یادگیری ماشین امروزی، برنده‌ی جایزه نوبل فیزیک شدند. 🧠کانال دالان هوش مصنوعی ایران 🆔@Dahooma
🔸نشست تخصصی: فناوری های نوظهور در حوزه تهدیدات شناختی و امنیت نرم 💠 تهدیدات شناختی و امنیت نرم: تحول مفهومی 💠 چیستی و ضرورت تدوین راهبرد توسعه هوش تهدیدات شناختی در سطح ملی دکتر بهروز ترک لادانی (عضو هیئت علمی دانشکده مهندسی کامپیوتر دانشگاه اصفهان) 💠 زیست بوم تهدیدات شناختی و پدیده‌های موثر بر دستکاری افکار عمومی در شبکه‌های اجتماعی مهندس هانی ربیعی (دانشجوی دکتری دانشکده مهندسی کامپیوتر دانشگاه اصفهان) 💠 تکنیک های دستکاری روانشناختی (مهندسی افکار) در شبکه‌های اجتماعی مهندس زهرا باقری نسب (دانشجوی دکتری دانشکده مهندسی کامپیوتر دانشگاه اصفهان) 🔘مکان: دانشگاه اصفهان، دانشکده مهندسی کامپیوتر (ساختمان انصاری)، طبقه سوم، تالار دکتر براآنی 🔘زمان: سه شنبه 24 مهرماه 1403 از ساعت 14 تا 18 🎥 این برنامه به صورت زنده از کانال فناوری‏‌های نوظهور تهدیدات شناختی در پیام رسان ایتا به آدرس https://eitaa.com/Cog_threats پخش خواهد شد. 🧠کانال دالان هوش مصنوعی ایران 🆔@Dahooma
13.03M حجم رسانه بالاست
مشاهده در ایتا
🔺خلاصه نویسی مقاله با ✅ابزار مورد استفاده : سایت https://resoomer.com 👈برای آشنایی با ابزارهای با ما همراه باشید 🆔 @DaHooMa 🌐Dahooma.ir
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
نمایش در ایتا
Privacy and personal data risk governance for generative artificial intelligence A Chinese perspective.pdf
2.09M
مقاله" محافظت از داده‌های شخصی و حریم خصوصی در هوش مصنوعی مولد: دیدگاه چین " به بررسی مسائل مربوط به حریم خصوصی و محافظت از داده‌های شخصی در هوش مصنوعی مولد (Generative AI) از دیدگاه چین پرداخته است. این مقاله چالش‌هایی که هوش مصنوعی مولد برای سیستم‌های حاکمیت داده به وجود آورده، به خصوص در زمینه محافظت از داده‌های شخصی و حریم خصوصی، مورد بحث قرار می‌دهد. 🆔 @AiGovernance
در ادامه، خلاصه‌ای از نکات اصلی مقاله به زبان ساده آورده شده است: عنوان مقاله:" محافظت از داده‌های شخصی و حریم خصوصی در هوش مصنوعی مولد: دیدگاه چین " ✅• رشد سریع هوش مصنوعی مولد: - هوش مصنوعی مولد مانند ChatGPT توانایی‌های زیادی در تولید محتوا ایجاد کرده است، اما این فناوری نگرانی‌های جدی در خصوص حریم خصوصی و امنیت داده‌ها به همراه دارد. - در این مقاله، چالش‌های مرتبط با خطرات حریم خصوصی و نشت داده‌های شخصی که این نوع هوش مصنوعی ایجاد می‌کند، بررسی شده است. ✅• خطرات ناشی از هوش مصنوعی مولد: - هوش مصنوعی مولد برای آموزش و توسعه خود از حجم بالایی از داده‌های شخصی استفاده می‌کند که این داده‌ها می‌توانند شامل اطلاعات حساس و شخصی کاربران باشد. - نشت داده‌ها یکی از اصلی‌ترین خطراتی است که این فناوری با آن مواجه است. برای مثال، ChatGPT در سال 2023 با مشکلاتی در زمینه نشت اطلاعات کاربران روبه‌رو شد. ✅• نگرانی‌های حریم خصوصی: - این هوش مصنوعی می‌تواند داده‌های خصوصی کاربران را به‌صورت ناخواسته جمع‌آوری و استفاده کند. بسیاری از کاربران حتی نمی‌دانند که اطلاعات شخصی‌شان چگونه استفاده می‌شود. - این اطلاعات می‌تواند شامل مکالمات خصوصی، رفتارهای آنلاین و حتی اطلاعات مرتبط با زندگی شخصی آن‌ها باشد که در نهایت خطرات زیادی برای امنیت حریم خصوصی افراد ایجاد می‌کند. ✅• نیاز به قوانین جدید: - با توجه به پیچیدگی‌های فنی و میزان گسترده استفاده از داده‌ها، قوانین فعلی برای محافظت از داده‌های شخصی ناکافی به نظر می‌رسند. - چین به‌عنوان یکی از کشورهای پیشرو در این حوزه، در حال تدوین قوانین جدیدی است تا بتواند بر چالش‌های حاکمیت داده‌های شخصی در هوش مصنوعی غلبه کند. قوانین جدید هوش مصنوعی که در سال 2023 در چین تصویب شد، تلاش دارد تا محافظت از حریم خصوصی افراد را تضمین کند. ✅• راهکارها برای آینده: - برای اینکه هوش مصنوعی به عنوان یک فناوری قابل اعتماد شناخته شود، لازم است که حفاظت از داده‌ها و شفافیت در استفاده از آن‌ها بهبود یابد. - هم‌اکنون در چین تلاش‌هایی برای ایجاد سیستم‌های حاکمیتی بهتر و شفاف‌تر برای محافظت از داده‌های شخصی انجام شده است. این تلاش‌ها به‌ویژه در قوانین جدیدی که به طور خاص برای هوش مصنوعی مولد تصویب شده، قابل مشاهده است. 🆔 @AiGovernance
هدایت شده از شبکه اصفهان
7.67M حجم رسانه بالاست
مشاهده در ایتا
🔰 این روزها مردم لبنان در میان جنگی با هستند. 💯 ما ملت و در دفاع از مظلوم، منتظر نمی‌مونیم. 💠 در آستانه فرارسیدن و در لبیک به فرمان یاری رسوندن به محور مقاومت «ما هم به این پویش می‌پیوندیم». 📦 : ✔️ پتوی ✔️ لباس گرم ✔️ انواع کنسرو ✔️ کیسه خواب ✔️ چادر اسکان ✔️ انواع کیک، کلوچه و بیسکوئیت ✔️ حبوبات بسته بندی ✔️ پوشاک گرم 📍 مراکز جمع آوری: خیمه های مقاومت، مساجد، هیآت، گروه های جهادی، مراکز خیریه و تشکل های فرهنگی سراسر کشور 💳 درگاه دریافت کمک های مالی شما توسط دفتر مقام معظم رهبری(مدظله العالی): 🔹 *۱۴# 🔹 شماره 6037998200000007 🔹 شماره IR320210000001000160000526