زندگی ما در رابطه با کار، یادگیری، برقراری روابط اجتماعی و غیره بهنحوی روزافزون به فناوریهای مدرن وابسته شده است. این وابستگی، فناوری را به یک “هدف” تبدیل کرده است.
اخذ تصمیمهای کلیدی در کسب و کار سازمانها هر روز بیشتر و بیشتر متکی به دادهها میشود. همین مسئله انگیزه بیشتری به شیادان و خرابکاران اینترنتی خواهد داد تا دسترسی به مجموعههای وسیع اطلاعات و دادهها را توسط باج افزارها دچار محدودیت کنند.
استفاده ابزاری از اطلاعات جمعآوری شده مربوط به کشورها و ملتها، ظرفیت بیشتری را در اختیار دولتهای قدرتمند و شرکتهای وابسته به آنها برای دستکاری در سیاستهای منطقهای (ژئوپولیتیک)خواهد گذاشت تا بتوانند نفوذ خود را در خارج از مرزهای خویش افزایش دهند. از طرفی، پیشرفتهای هوشمصنوعی و یادگیریماشین طی چندسال اخیر، اگرچه موجب ارتقاء سطح امنیت سایبری خواهد شد اما در عینحال به مهاجمان نیز کمک خواهد کرد.
کنار هم گذاشتن یا ترکیب مواردی که گفته شد، مبنای سه پیشگویی فورستر در ارتباط با امنیت سایبری در سال 2020 است:
گردآوری و تجهیز “داده” از طریق فعالیتهای “ادغام و تملیک” شرکتها
اگرچه انتشار خبر رسوایی کمبریج آنالیتیکا و فیسبوک (یک شرکت مشاوره سیاسی با فعالیتهای داده کاوی و تجزیه تحلیل اطلاعات) در سو استفاده از اطلاعات پروفایل میلیونها کاربر فیسبوک برای تبلیغات سیاسی، نگرانیهای عمدهای در ارتباط با جمعآوری و به اشتراکگذاری دادهها ایجاد کرد؛ اما ارزش روزافزون دسترسی به دادهها منبع قدرتی جذاب و اغواکننده است که شرکتها یا دولتها نمیتوانند آن را نادیده بگیرند.
به نظر میرسد در سال پیش رو، قوانینی برای محدود کردن و نحوهی بهاشتراکگذاری و ادغام دادهها بین سازمانهای بزرگ در سطح جهانی ارائه شود، اما این محدودیتها اثر چندانی در کاهش سرعت رشد “ادغام و تملیک”، بهعنوان پشتوانهی جمعآوری و ادغام دادهها، نخواهد داشت.
جمعآوری اطلاعات اصلی، مکان جغرافیایی کاربران، یا اطلاعات پرونده پزشکی آنها ممکن است در ابتدا بیخطر یا حتی بیضرر بهنظر برسد، اما فرض کنید شرکتهای ارائهکنندهی خدماتی که این اطلاعات را دارند، به مالکیت سازمانی درآیند که خود تحت مالکیت یک دولت باشد. آنچه اتفاق میافتد این است که اطلاعات و دادههایی که در اختیار شرکت خدماتی بوده حالا در اختیار یک دولت، که ممکن است دشمن یا رقیب باشد، قرار خواهد گرفت.
تا کنون موارد بسیاری از این موارد پیش آمده است که ادغام و شراکت سازمانها موجب دسترسی ناخواسته به دادهها شده است. در نتیجه، شرکتها نیازمند ایجاد تدابیر و راهکارهای مخصوص بهخود برای کنترل اطلاعات مرتبط با کاربران خود هستند.
افزایش هزینههای کلاهبرداری توسط “جعل عمیق” در سال 2020 تا 250میلیون دلار
Deepfake یا “جعل عمیق” جدیدترین فناوری جعل صدا و تصویر با استفاده از هوشمصنوعی است که نتیجه حاصل از آن، به نحوی باورنکردنی طبیعی و واقعی بهنظر میرسد.
در ماجرایی که احتمالا اولین نمونه کلاهبرداری توسط این روش است، شیادان به واسطه ترفندهای مهندسی اجتماعی موفق شدند از طریق استفاده از فناوری تولید زبان و کلامطبیعی، مبلغ 243هزاردلار از یک شرکت انرژی آلمانی کلاهبرداری کنند.
به نظر میرسد با توجه به سود حاصل از جعل صدا یا تصویر که با ترکیب فناوریهای Deepfake و هوشمصنوعی است، باید منتظر موارد بیشتری از کلاهبرداری در سال پیش رو باشیم.
همچنین احتمالا شاهد گسترش و افزایش حملاتی بر مبنای Deepfake خواهیم بود که با درصد کوچکی از هزینههای معمول، نمونههای قابلقبول و قانعکنندهایی از صداها و تصاویر جعلی ساخته شود.
بهمنظور کاهش خطرات، لازم است که متخصصان فناوریاطلاعات سرمایه و وقت بیشتری برای برگزاری برنامههای آموزشی و آگاهیرسانی صرف کنند. برخورداری از کارمندان زیرک و هوشیار که قادر به تشخیص و شناسایی شباهتها و تفاوتهای حملات Deepfake و حملات فیشینگ باشند، هزینههای ناشی از حملات جعل عمیق و فیشینگ کاهش خواهد یافت.
اعمال محدودیت توسط 20درصد از مشتریان برای دسترسی و اشتراک حریم شخصی
علیرغم ارزش روزافزون راهکارهای هوشمصنوعی و یادگیریماشین، شرکتهایی که برای بهینهسازی محصولات B2B خود متکی به اطلاعات مشتریان سازمانهای بزرگ هستند، احتمالا بیش از پیش برای پیدا کردن مشتریانی که حاضر به پذیرش اشتراکگذاری اطلاعات باشند دچار مشکل خواهند شد.
امروزه قوانینی همچون GDPR(قانون عمومی محافظت از اطلاعات) وCCPA(قانون حفظ حریمخصوصی مصرفکنندگان کالیفرنیا) و همچنین واکنش شدید مشتریان باعث شده است که کوچکترین اشتباهات و افشای سهوی اطلاعات مربوط به حریم شخصی مشتریان، بهنوعی فاجعه تبدیل شود که منافع مالی سازمان در کوتاهمدت و شهره و برند سازمان را در بلندمدت تحت تاثیر قرار دهد. به همین دلیل احتمالا شرکتها ناچارند انتقال اطلاعات و دادههای خود به شرکتهای دیگر را ممنوع یا محدودتر کنند.
از طرفی، این ممنوعیت که به کمبود اطلاعات منجر خواهد شد به احتمال زیاد راهکارهای هوشمصنوعی و یادگیریماشین را کماثر خواهد کرد. این مسئله هم بهنوبه خود میتواند یک چرخهی بازخورد منفی بوجود بیاورد که در نتیجه آن، شرکتهایی که سود حاصل از هوشمصنوعی را احساس نمیکنند سعی در کاهش ریسک هزینههای مرتبط با حریم شخصی خواهند کرد. همین مسئله تعداد بیشتری از مشتریان سازمانهای بزرگ در طول سالهای آینده را بهسوی اعمال ممنوعیتهای گستردهتری جهت استفاده از اطلاعات آنها سوق خواهد داد.
منبع: Forrester