امنیت

هوش مصنوعی: حفاظت یا تهدید

فیلم سینمایی سرخ پوست

هوش مصنوعی: حفاظت یا تهدید

هوش مصنوعی در حال پیشرفت است و دیگر به حضور این موجود ناشناخته و عجیب در لابه‌لای خبرها عادت کرده‌ایم. ادعا می‌شود هوش مصنوعی قادر است اسلحه‌های پنهان‌شده در مدرسه‌ها را بیابد و با این کار مانع کشتار دانش آموزان شود هرچند که در حال حاضر احتمال اشتباه زیاد است و به‌راحتی فریب می‌خورد. هوش مصنوعی دیگر یک داستان نیست؛ واقعیت محضی است که باید مراقبش باشیم.

از زمان تیراندازی مشهور دبیرستان کلمباین در سال ۱۹۹۹ تا به امروز بیش از ۱۸۷ هزار دانش‌آموز در مدرسه‌های آمریکا مورد تهاجم مسلحانه قرار گرفته‌اند. Tim Button که یکی از نزدیکانش قربانی تیراندازی در مدارس‌ آمریکاست، تصمیم گرفته با تاسیس شرکتی و استفاده از جدیدترین سامانه‌های امنیتی، راهکاری برای شناسایی افرادی که احتمال می‌رود در مدرسه دست به تیراندازی بزنند، ارائه کند.

همکاری با شرکت های بزرگ

این شرکت به‌نام Shielded Students در ابتدا همکاری خود را با چند شرکت دیگر در اسن زمینه آغاز کرد؛ از جمله شرکت کانادایی Patriot One که با ترکیب یک اسکنر ریزموج و هوش مصنوعی قادر است اسلحه‌های مخفی‌شده را شناسایی کند. Shielded Students امید دارد که بتواند با ترکیب چنین فناوری‌هایی در قالب یک بسته، مانع کشتار دانش‌آموزان در مدرسه‌ها شود.

درحالی‌که قانون‌گذاران و وکلا مشغول سروکله زدن با قوانین مربوط به حمل اسلحه در آمریکا هستند، شمار شرکت‌های حامی Shielded Students رو به افزایش است.

بسیاری از این شرکت‌ها مدعی هستند که قادرند با کمک روش‌های هوش مصنوعی و با تحلیل تصاویر زنده یا بررسی تصاویر دوربین‌های نظارتی، حاملان اسلحه را به‌طور خودکار شناسایی کنند. اگر چه ممکن است این ادعا در حالت کلی خیال بسیاری از والدین را آسوده کند، اما برخی از کارشناسان از این نگران هستند که مدرسه‌ها به‌طور گسترده‌ زیر نظارت چشم‌های پنهان قرار گیرند و شرکت‌های خصوصی با کمک هوش مصنوعی بتوانند حجم بسیار زیادی از داده‌‌های مربوط به دانش‌آموزان را جمع‌آوری کرده و دست به تجزیه‌وتحلیل آن‌ها بزنند.

مهم‌تر این‌که هنوز اطلاعات کافی در مورد عملکرد این سامانه‌های هوشمند شناسایی اسلحه در محیط شلوغ یک مدرسه وجود ندارد. Shielded Students در حال مذاکره با مسئولان مدرسه‌ها است تا آن‌ها را متقاعد کند این سامانه امنیتی را بیازماند و اگرچه Button معتقد است که شاید این سامانه‌ها موفق به شناسایی همه موارد نشوند، اما اطمینان می‌دهد که استفاده از هوش مصنوعی تأثیر زیادی بر کاهش آمار قربانیان خواهد داشت.

هوش مصنوعی، هوش ماشین هاست! در واقع شاخه ای از علوم کامپیوتر است که قصد دارد راه حل های الگوریتمی را ارائه کند تا بتوانیم به وسیله آنها در ماشین ها هوشمندی ایجاد کنیم.

همانطور که در فیلم بالا میبینید محققان LabSix موفق شده‌اند با یک لاک‌پشت عروسکی، سامانه تشخیص تصاویر گوگل را فریب دهند. این سامانه لاک‌پشت را به‌عنوان اسلحه شناسایی کرده است.

در سامانه های فعلی درصد خطا زیاد است

Virtual eForce یکی دیگر از استارت‌آپ‌هایی است که قصد دارد با استفاده از فناوری‌های پیشرفته و بررسی تصاویر دوربین‌های نظارتی، مهاجمین مسلح در مدرسه‌ها را شناسایی کند. درصورتی‌که سامانه به فردی مشکوک شد، انتظامات مدرسه را آگاه می‌کند و آن‌ها با بررسی بیشتر، تصمیم نهایی را می‌گیرند که آیا این یک تهدید جدی است و به دخالت پلیس نیاز دارد یا خیر.

در سامانه‌‌های فعلی امکان اشتباه زیاد است، به‌طوری‌که ممکن است سامانه به‌اشتباه یک شی دیگر را به‌جای اسلحه شناسایی کند. اغلب این شرکت‌ها وعده داده‌اند که امکان تشخیص چهره را نیز به سامانه تشخیص اسلحه بیفزایند. این مورد می‌تواند نگرانی‌‌ها را در زمینه حفظ حریم خصوصی دانش‌آموزان بیشتر کند.

علاوه بر بحث حریم خصوصی، نگرانی‌‌هایی نیز در مورد امنیت این سامانه‌ها مطرح است. مثلا این‌که هکرها با نفوذ به چنین سامانه‌‌هایی و تغذیه آن‌ها با هزاران یا میلیون‌ها تصویر جعلی، راهی برای به اشتباه انداختن سامانه بیابند (فرایندی که در حوزه هوش مصنوعی به adversarial attack معروف است)

نظر دانشجویان

Andrew Ilyas، دانشجوی دکترای علوم کامپیوتر از دانشگاه ام‌آی‌تی می‌گوید: «به عقیده من اولویت نخست این است که بپذیریم چنین حملاتی وجود دارند و بدانیم اگر یک مهاجم انگیزه کافی برای در هم شکستن یک سامانه مبتنی بر یادگیری عمیق را داشته باشد، راهی برای این کار پیدا خواهد کرد.»

اندرو الیاس و همکارانش در گروه تحقیقات هوش مصنوعی LabSix دانشگاه ام‌آی‌تی چندین بار موفق شده‌اند، به همین روش، ابزارهای مبتنی بر یادگیری عمیق را فریب دهند.البته به گفته Anish Athalye، از دیگر اعضای این گروه نمی‌توان گفت که فریب‌دادن یک سامانه نظارتی مبتنی برهوش مصنوعی چه میزان ساده است و تاکنون کسی به‌طور علنی ادعای اجرای موفقیت‌آمیز یک حمله adversarial روی چنین سامانه‌های نظارتی نداشته است.

منبع
مجله شبمه مگ
برچسب ها
نمایش بیشتر

نوشته های مشابه

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
بستن
بستن