هوش مصنوعی

هر آنچه درباره هوش مصنوعی باید بدانید!

🕓 زمان مطالعه: 7 دقیقه

اخیراً تبلیغات زیادی در زمینه هوش مصنوعی صورت گرفته است، اما این بدان معنا نیست که ربات ها قرار است جایگزین ما شوند. این مقاله این موضوع را شفاف میکند و توضیح می دهد که کسب و کارها چه رویکردی باید نسبت به هوش مصنوعی داشته باشند.

از تفکر در مورد ماشین‌های خودران گرفته تا ترس از ربات‌های هوش مصنوعی که می‌توانند دنیا را نابود کنند، در چند سال گذشته تبلیغات هوش مصنوعی زیادی انجام شده است. هوش مصنوعی تصورات، رویاها و گهگاهی کابوس های ما را تسخیر کرده است. با این حال، واقعیت این است که پیشرفت هوش مصنوعی در حال حاضر بسیار کمتر از آن چیزی است که ما پیش‌بینی می‌کردیم. به عنوان مثال، خودروهای خودران که اغلب به عنوان نمادی از آینده بی حد و حصر هوش مصنوعی در نظر گرفته می‌شوند، یک مورد استفاده محدود را نشان می‌دهند و هنوز یک برنامه رایج در تمام بخش‌های حمل‌ونقل نیستند.

هوش مصنوعی در مقابل یادگیری ماشین

هوش مصنوعی در مقابل یادگیری ماشین

هوش مصنوعی در مقابل یادگیری ماشین

هوش مصنوعی و یادگیری ماشین اصطلاحاتی هستند که اغلب به جای هم استفاده می شوند، اما مفاهیم متفاوتی را نشان می دهند. هدف هوش مصنوعی ایجاد آگاهی است که به معنای قابلیت آگاهی و استعداد قبولی در تست تورینگ است که با استفاده از آموخته ها و ارتقاء آن به سطح بعدی کار می کند. هدف استفاده از هوش مصنوعی کپی کردن اعمال انسان است، مانند ایجاد یک ربات تمیزکننده که به روشی شبیه به انسان عمل می کند.

یادگیری ماشین زیر مجموعه ای از هوش مصنوعی است که شامل مدل های ریاضی است و توانایی های آن بر اساس ترکیب ماشین ها با داده ها است. یادگیری ماشین با یادگیری درس از رویدادها و سپس اولویت بندی آن درس ها کار می کند. در نتیجه، یادگیری ماشین می‌تواند اقداماتی را انجام دهد که انسان‌ها قادر به انجام آن‌ها نیستند، مانند مرور مجموعه‌های وسیعی از داده‌ها، کشف الگوها، پیش‌بینی احتمالات و موارد دیگر.

 

هوش مصنوعی عمومی در مقابل هوش مصنوعی محدود

مفهوم هوش مصنوعی عمومی (General AI) همان چیزی است که اغلب مردم را می‌ترساند، زیرا مظهر “ربات‌های ارباب” ما است که جایگزین انسان‌ها می‌شوند. با این حال، در حالی که این ایده از نظر فنی امکان پذیر است، ما در حال حاضر در آن مرحله نیستیم.

بر خلاف هوش مصنوعی عمومی، هوش مصنوعی محدود (Narrow AI) یک شکل تخصصی از هوش مصنوعی است که برای کارهای بسیار خاص تنظیم شده است. این متمرکز بودن به پشتیبانی از انسان‌ها کمک می‌کند و ما را از کارهایی که خیلی سخت یا بسیار مضر هستند، رهایی می‌بخشد. هوش مصنوعی قرار نیست جایگزین ما شود. هوش مصنوعی محدود در حال حاضر در صنایع مختلف مانند ساخت خودرو یا جعبه های بسته بندی استفاده می شود. در امنیت سایبری، هوش مصنوعی محدود می‌تواند داده‌ها و گزارش‌های فعالیت را به منظور جستجوی ناهنجاری‌ها یا نشانه‌های حمله آنالیز کند.

 

هوش مصنوعی و یادگیری ماشین در طبیعت

سه مدل رایج هوش مصنوعی و یادگیری ماشین در طبیعت وجود دارد: هوش مصنوعی مولد، یادگیری ماشین تحت نظارت و یادگیری ماشین بدون نظارت.

 

هوش مصنوعی مولد

هوش مصنوعی مولد یک زمینه پیشرفته در هوش مصنوعی است که با مدل هایی مانند LLM که بر روی مجموعه ای از دانش، آموزش داده شده است. فناوری هوش مصنوعی مولد توانایی تولید محتوای جدید بر اساس اطلاعات موجود در آن مجموعه را دارد. هوش مصنوعی مولد به عنوان شکلی از “تصحیح خودکار” یا ” تایپ از قبل” توصیف شده است، اما قدرتمندتر. نمونه هایی از اپلیکیشن های هوش مصنوعی مولد عبارتند از بینگ، بارد، ChatGPT، Dall-E و دستیاران تخصصی سایبری مانند IBM Security QRadar Advisor with Watson یا MSFT Security CoPilot.

هوش مصنوعی مولد برای مواردی مانند ایده پردازی، کمک به ویرایش و انجام تحقیقات بر روی یک مجموعه متن قابل اعتماد، بهترین گزینه است. متخصصان امنیت سایبری، مانند تیم‌های SOC و فیوژن، می‌توانند از هوش مصنوعی مولد به منظور تحقیق استفاده کنند تا به آن‌ها در درک آسیب‌پذیری‌های روز-صفر، توپولوژی‌های شبکه یا شاخص‌های نفوذ (IoC) کمک کنند. مهم است که بدانیم هوش مصنوعی مولد گاهی اوقات “توهم” ایجاد می کند، یعنی پاسخ های اشتباه.

به گفته ایتای مائور، مدیر ارشد استراتژی امنیت در Cato Networks، “هوش مصنوعی مولد می تواند به مجرمان نیز کمک کند. به عنوان مثال، آنها می توانند از آن برای نوشتن ایمیل های فیشینگ استفاده کنند. قبل از ChatGPT، یکی از تشخیص های اساسی ایمیل های فیشینگ اشتباهات املایی و دستور زبان بد بود. اینها نشانه هایی بودند که نشان می داد چیزی مشکوک است. اکنون مجرمان می توانند به راحتی یک ایمیل فیشینگ به زبان های مختلف و با دستور زبان کامل بنویسند.”

 

یادگیری بدون نظارت

یادگیری بدون نظارت در یادگیری ماشین به این معنی است که داده های آموزشی و نتایج، برچسب گذاری نمی شوند. این رویکرد به الگوریتم‌ها اجازه می‌دهد تا بدون دخالت انسان از داده‌ها استنتاج کنند، الگوها، خوشه‌ها و ارتباطات را بیابند. یادگیری بدون نظارت معمولاً برای توصیه های پویا مانند وب سایت های خرده فروشی استفاده می شود.

در امنیت سایبری، یادگیری بدون نظارت می‌تواند برای خوشه‌بندی یا گروه‌بندی و یافتن الگوهایی که قبلاً آشکار نبودند استفاده شود، به عنوان مثال می‌تواند به شناسایی همه بدافزارها با امضای خاصی که از یک کشور خاص سرچشمه می‌گیرد، کمک کند. همچنین می تواند ارتباطات و لینک های بین مجموعه داده ها را بیابد. به عنوان مثال، تعیین اینکه آیا افرادی که روی ایمیل های فیشینگ کلیک می کنند، احتمال بیشتری برای استفاده مجدد از رمزهای عبور دارند یا خیر. یکی دیگر از موارد استفاده، تشخیص ناهنجاری است، مانند شناسایی فعالیتی که ممکن است نشان دهد مهاجم از اطلاعات اکانت دزدیده شده استفاده می کند.

یادگیری بدون نظارت همیشه انتخاب درستی نیست. هنگامی که خروجی اشتباه تاثیر بسیار بالا و پیامدهای شدیدی دارد، زمانی که به زمان های آموزشی کوتاه نیاز است، یا زمانی که شفافیت کامل مورد نیاز است، توصیه می شود رویکرد متفاوتی در پیش بگیرید.

 

یادگیری تحت نظارت

در یادگیری تحت نظارت، داده های آموزشی با جفت های ورودی/خروجی برچسب گذاری می شوند و دقت مدل به کیفیت برچسب گذاری و کامل بودن مجموعه داده ها بستگی دارد. مداخله انسانی اغلب برای بررسی خروجی، بهبود دقت و اصلاح هرگونه سوگیری مورد نیاز است. یادگیری تحت نظارت بهترین گزینه برای انجام پیش بینی ها است.

در امنیت سایبری، یادگیری تحت نظارت برای طبقه بندی استفاده می شود که می تواند به شناسایی فیشینگ و بدافزار کمک کند. همچنین می‌توان از آن برای رگرسیون استفاده کرد، مانند پیش‌بینی هزینه یک حمله جدید بر اساس هزینه‌های حوادث گذشته.

اگر زمانی برای آموزش وجود نداشته باشد یا کسی برای برچسب زدن یا آموزش داده ها وجود نداشته باشد، یادگیری تحت نظارت گزینه مناسبی نیست. همچنین زمانی که نیاز به آنالیز مقادیر زیادی از داده وجود دارد، زمانی که داده کافی وجود ندارد، یا زمانی که طبقه بندی/خوشه بندی خودکار هدف نهایی است، توصیه نمی شود.

 

یادگیری تقویتی (RL)

یادگیری تقویتی (RL) فضایی بین یادگیری کاملاً تحت نظارت و بدون نظارت جای می گیرد و یک رویکرد منحصر به فرد برای یادگیری ماشین است. این به آن معنا است که زمانی که یک مدل آموزشی در پیش بینی موارد استفاده خاص ناکام باشد، یک مدل دیگر بازآموزی می شود. حتی یادگیری عمیق، با دسترسی به مجموعه بزرگ داده‌، همچنان می‌تواند موارد استفاده غیرمتعارف را که یادگیری تقویتی می‌تواند به آن رسیدگی کند، از دست بدهد. وجود یادگیری تقویتی یک پذیرش ضمنی است که مدل ها می توانند ناقص باشند.

 

نظر مجرمان سایبری درباره هوش مصنوعی

مجرمان درباره هوش مصنوعی چه می گویند

آنچه مجرمان سایبری درباره هوش مصنوعی مولد می گویند

هوش مصنوعی مولد مورد توجه مجرمان سایبری است. به گفته ایتای مائور “جنایتکاران سایبری از روزی ChatGPT، Bard و سایر برنامه های هوش مصنوعی مولد معرفی شدند، در مورد نحوه استفاده از صحبت می کردند و همچنین تجربیات و افکار خود را در مورد قابلیت های آنها به اشتراک می گذاشتند. همانطور که به نظر می رسد، آنها معتقدند که GenAI دارای محدودیت هایی است و احتمالا در چند سال آینده برای استفاده مهاجمان کامل تر خواهد شد.”

برخی از نمونه های مکالمه عبارتند از:

چارچوب مدیریت ریسک هوش مصنوعی توسط NIST

هنگام تعامل با هوش مصنوعی و راه حل های مبتنی بر هوش مصنوعی، درک محدودیت ها، خطرات و آسیب پذیری های هوش مصنوعی بسیار مهم است. چارچوب مدیریت ریسک هوش مصنوعی توسط NIST مجموعه‌ای از دستورالعمل‌ها و بهترین شیوه‌ها است که برای کمک به سازمان‌ها در شناسایی، ارزیابی و مدیریت ریسک‌های مرتبط با استقرار و استفاده از فناوری‌های هوش مصنوعی طراحی شده اند.

چارچوب از شش عنصر تشکیل شده است:

  1. معتبر و قابل اعتماد – هوش مصنوعی می تواند اطلاعات اشتباهی را ارائه دهد که در GenAI به عنوان “توهم” نیز شناخته می شود. مهم است که شرکت‌ها بتوانند هوش مصنوعی مورد استفاده خود از لحاظ دقت و قابل اعتماد بودن اعتبار سنجی کنند.
  1. ایمن – اطمینان از اینکه اطلاعات خواسته شده با سایر کاربران به اشتراک گذاشته نمی شود، مانند مورد سامسونگ.
  2. ایمن و انعطاف پذیر – مهاجمان از هوش مصنوعی برای حملات سایبری استفاده می کنند. سازمان ها باید اطمینان حاصل کنند که سیستم هوش مصنوعی آنها در برابر حملات محافظت شده و ایمن است و میتواند تلاش برای سواستفاده هکر ها و یا استفاده آنها از هوش مصنوعی سازمان برای حمله را خنثی کند.
  3. مسئولیت پذیر و شفاف – مهم است که بتوانیم زنجیره تامین هوش مصنوعی را توضیح دهیم و اطمینان حاصل کنیم که گفتگوی شفاف در مورد نحوه عملکرد آن وجود دارد. هوش مصنوعی جادو نیست.
  4. افزایش حریم خصوصی – اطمینان از محافظت و ناشناس بودن اطلاعات درخواستی در دریاچه داده و به هنگام استفاده.
  5. منصفانه – این یکی از مهمترین عناصر است. این به معنای مدیریت سوگیری مضر است. به عنوان مثال، اغلب در تشخیص چهره هوش مصنوعی تعصب وجود دارد، به طوری که مردان با پوست روشن در مقایسه با زنان و افراد با پوست تیره‌تر با دقت بیشتری شناسایی می‌شوند. به عنوان مثال، هنگام استفاده از هوش مصنوعی برای اجرای قانون، این می تواند پیامدهای شدیدی داشته باشد.

 

سوالاتی که باید از فروشنده بپرسید

در آینده نزدیک، ارائه قابلیت‌های هوش مصنوعی مولد توسط فروشندگان بسیار رایج خواهد بود. در اینجا لیستی از سوالاتی که باید برای انتخاب درست بپرسید، آمده است.

1. چی و چرا؟

قابلیت های هوش مصنوعی چیست و چرا به آنها نیاز است؟ به عنوان مثال، GenAI در نوشتن ایمیل بسیار خوب است، بنابراین GenAI برای یک سیستم ایمیل منطقی است. فروشنده برای چه چیزی استفاده می کند؟

2. داده های آموزشی

داده های آموزشی باید به درستی و با دقت مدیریت شوند، در غیر این صورت می توانند سوگیری ایجاد کنند. مهم است که در مورد انواع داده های آموزشی، نحوه پاکسازی، نحوه مدیریت و غیره سوال کنید.

3. انعطاف پذیری در آن هوش مصنوعی به کار رفته است؟

آیا فروشنده در نظر گرفته است که مجرمان سایبری به خود سیستم و کنترل های امنیتی به کار رفته حمله می کنند؟

4. بازگشت سرمایه واقعی در مقابل ادعا

بازگشت سرمایه به چه صورت اتفاق می افتد و آیا بازگشت سرمایه، به کارگیری هوش مصنوعی یا یادگیری ماشین را توجیه می کند (یا به منظور اغراق و برای اهداف فروش اضافه شده اند)؟

5. آیا واقعاً مشکلی را حل می کند؟

مهمترین سوال – آیا هوش مصنوعی مشکل شما را حل می کند و آیا آن را به خوبی انجام می دهد؟ پرداخت هزینه بیشتر و متحمل شدن سربار اضافی هیچ فایده ای ندارد مگر اینکه هوش مصنوعی مشکل را حل کند و آنطور که باید کار کند.

هوش مصنوعی می تواند ما را قدرتمند کرده و به ما کمک کند عملکرد بهتری داشته باشیم اما این یک راه حل معجزه آسا نیست. به همین دلیل برای کسب ‌و کارها مهم است که درباره ابزارهای با قابلیت هوش مصنوعی که برای پیاده‌سازی داخلی انتخاب می‌کنند، تصمیم‌ گیری آگاهانه ای داشته باشند.

برای کسب اطلاعات بیشتر در مورد موارد استفاده از هوش مصنوعی و یادگیری ماشین، خطرات، اپلیکیشن ها، آسیب‌پذیری‌ها و پیامدهای آن برای کارشناسان امنیتی، ویدیو کامل کلاس را اینجا تماشا کنید.

دیدگاه ها بسته شده اند.