8:30 - 17:00

ساعات کاری : شنبه تا چهارشنبه

88102518

تماس برای مشاوره رایگان

اینستاگرام

آپارات

چگونه مأموران هوش مصنوعی (AI Agents) در حال تعریف مجدد نظارت تصویری هستند

ایمن سازان پیشرو > اخرین مقالات  > چگونه مأموران هوش مصنوعی (AI Agents) در حال تعریف مجدد نظارت تصویری هستند

چگونه مأموران هوش مصنوعی (AI Agents) در حال تعریف مجدد نظارت تصویری هستند

مأموران هوش مصنوعی اکنون می‌توانند وظایف بیشتری را با پاسخگویی پویا به موقعیت‌ها و بدون اتکا به قوانین از پیش تعریف‌شده، خودکار کنند.

با توانمندتر شدن روزافزون مأموران هوش مصنوعی (Artificial Intelligence Agents)، سیستم‌های نظارت تصویری در حال ورود به دورانی تحول‌آفرین هستند؛ دورانی که مشخصه‌ی آن اتوماسیون هوشمند، تصمیم‌گیری مبتنی بر زمینه (contextual) و پشتیبانی پیشرفته از اپراتورها است. این سیستم‌ها دیگر به اجرای قوانین ثابت و از پیش تعیین‌شده محدود نیستند.

در عوض، آن‌ها در حال تبدیل شدن به موجودیت‌هایی پاسخگو هستند که می‌توانند به صورت پویا اطلاعات لحظه‌ای را ارزیابی کرده و بر اساس آن عمل کنند، و بدین ترتیب نقش اپراتورهای انسانی و کارایی کلی عملیات امنیتی را بازتعریف می‌کنند.

در قلب این تحول، مفهوم «استقلال» (Autonomy) قرار دارد – اینکه چه میزان از اختیار تصمیم‌گیری می‌تواند و باید به ماشین‌ها واگذار شود. به گفته فلوریان ماتوسک، مدیر استراتژی هوش مصنوعی و مدیرعامل Genetec Vienna، این پرسش برای آینده هوش مصنوعی در نظارت تصویری اساسی است.

ماتوسک گفت: «مأموران هوش مصنوعی اکنون می‌توانند وظایf بیشتری را با پاسخگویی پویا به موقعیت‌ها و بدون اتکا به قوانین از پیش تعریف‌شده، خودکار کنند. به‌جای اینکه بپرسیم چقدر مداخله انسانی ضروری خواهد بود، باید در نظر بگیریم که چقدر باید مورد نیاز باشد.»

این تغییر ظریف اما مهم در چارچوب‌بندی، منعکس‌کننده یک روند گسترده‌تر در این صنعت است: حرکت از سیستم‌های واکنشی (Reactive) به سمت قابلیت‌های پیشگیرانه (Proactive) و پیش‌بینانه (Predictive). سیستم‌های مدیریت تصویر (VMS) امروزی باید در محیط‌های پیچیده و حیاتی – از فرودگاه‌ها و نیروگاه‌ها گرفته تا شبکه‌های نظارت شهری – عمل کنند، جایی که تصمیمات نادرست یا دیرهنگام می‌تواند عواقب شدیدی داشته باشد.

ماتوسک هشدار داد: «سیستم‌های VMS در مکان‌های حیاتی مستقر می‌شوند که در آن تصمیمات اشتباه می‌تواند تأثیر زیادی داشته باشد. به همین دلیل است که انسان‌ها باید همیشه برای تصمیم‌گیری‌های حیاتی در چرخه [تصمیم‌گیری] نگه داشته شوند تا قضاوت‌های نهایی با نظارت انسانی انجام شود. سیستم‌های هوش مصنوعی باید توانایی‌های کاربران را تقویت کنند، نه اینکه جایگزین آن‌ها شوند.»

 

از تحلیلگری تا استقلال (From analytics to autonomy)

 

در شرکت Milestone Systems، این تحول از طریق آنچه که مدیر ارشد فناوری، راهول یاداو، «ضریب اقدام» (Action Quotient) یا AQ می‌نامد، نگریسته می‌شود. این معیاری است که نشان می‌دهد یک سیستم با چه میزان هوشمندی و استقلال می‌تواند به محرک‌ها پاسخ دهد – که منعکس‌کننده روشی است که وسایل نقلیه خودران شرایط جاده‌ای در حال تغییر را تفسیر کرده و بر اساس آن عمل می‌کنند.

یاداو توضیح داد: «این تغییر نشان‌دهنده آن چیزی است که ما آن را ضریب اقدام یا AQ می‌نامیم، که همان قدرت اقدام هوشمندانه و مستقل است، مشابه اینکه چگونه اتومبیل‌های خودران تسلا فقط شرایط جاده را پردازش نمی‌کنند، بلکه سناریوهای پیچیده ترافیکی را در لحظه مدیریت (navigate) می‌کنند.»

در زمینه امنیت تصویری، AQ به توانایی مأموران هوش مصنوعی در تشخیص ناهنجاری‌ها، شناسایی تهدیدات امنیتی، هماهنگ کردن پاسخ‌های مناسب و حتی پیش‌بینی حوادث آینده بر اساس الگوها و داده‌های تاریخی ترجمه می‌شود. به گفته یاداو، این سیستم‌ها به طور مداوم بهبود می‌یابند و از هر حادثه‌ای که پردازش می‌کنند، یاد می‌گیرند.

او گفت: «مأموران هوش مصنوعی می‌توانند نظارت روتین را انجام دهند، تهدیدات را شناسایی کنند، پاسخ‌ها را هماهنگ کنند و حوادث را پیش‌بینی کنند. ارزش آن‌ها ناشی از یادگیری از هر حادثه و بهبود در طول زمان است که عملیات امنیتی به طور فزاینده‌ای مؤثر ایجاد می‌کند.»

با وجود این پیشرفت‌ها، هر دو کارشناس بر یک اصل غیرقابل مذاکره توافق دارند: نظارت انسانی همچنان ضروری است. فناوری، هر چقدر هم که پیچیده باشد، نمی‌تواند به طور کامل جایگزین قضاوت انسانی شود – به ویژه در سناریوهای غیرقابل پیش‌بینی یا حساس از نظر اخلاقی.

یاداو گفت: «مؤثرترین عملیات امنیتی، ترکیبی از فناوری و تخصص انسانی است. اپراتورهای انسانی در درک زمینه، انجام قضاوت‌های ظریف و مدیریت موقعیت‌های غیرمنتظره برتری دارند. نکته کلیدی، یافتن تعادل مناسبی است که در آن فناوری سناریوهای قابل پیش‌بینی را مدیریت کند در حالی که انسان‌ها بر موقعیت‌هایی که نیاز به قضاوت و همدلی دارند، تمرکز کنند.»

 

حریم خصوصی و سوگیری: مرزهای اخلاقی هوش مصنوعی

 

همانطور که سیستم‌های هوش مصنوعی استقلال بیشتری پیدا می‌کنند، ناگزیر با چالش‌های اخلاقی و نظارتی روبرو می‌شوند – به‌ویژه در مورد حریم خصوصی داده‌ها، عدالت الگوریتمی و استفاده مسئولانه. در نظارت تصویری، جایی که سیستم‌ها دائماً در حال ضبط و پردازش اطلاعات شخصی حساس هستند، مخاطرات بسیار بالا است.

ماتوسک نسبت به خطرات اعتماد کورکورانه به داده‌ها بدون بررسی دقیق و رضایت کاربر هشدار داد. او گفت: «سیستم‌های هوش مصنوعی تنها به اندازه داده‌هایی که به آن‌ها خورانده شده، خوب هستند. مجموعه داده‌های مغرضانه (Biased) منجر به تصمیمات مغرضانه می‌شوند و باید از آن‌ها اجتناب کرد.»

او تأکید کرد که سازمان‌هایی که تحلیل‌های ویدیویی مبتنی بر هوش مصنوعی را توسعه می‌دهند، باید در مورد کیفیت داده‌ها و شفافیت کوشا باشند. «داده‌های درون مجموعه‌داده‌ها باید بررسی شوند و داده‌های مشتری فقط باید پس از رضایت صریح آن‌ها استفاده شوند. به همین دلیل است که هر زمان که سیستم‌های هوش مصنوعی توسعه می‌یابند، باید از دستورالعمل‌های هوش مصنوعی مسئولانه پیروی شود.»

یاداو این نگرانی‌ها را تکرار کرد و آن‌ها را هم به‌عنوان یک تعهد اخلاقی و هم یک مزیت استراتژیک چارچوب‌بندی کرد. او گفت: «توسعه مسئولانه فناوری به یک مزیت رقابتی حیاتی تبدیل شده است. سازمان‌ها باید چارچوب‌های اخلاقی را که از حریم خصوصی محافظت می‌کنند در اولویت قرار دهند و در عین حال نوآوری را امکان‌پذیر سازند و با کاربرانی که شرکای امنیتی را بر اساس سابقه اخلاقی آن‌ها انتخاب می‌کنند، اعتماد ایجاد کنند.»

برای عملیاتی کردن این امر، Milestone در حال کار بر روی ایجاد ساختارهای حاکمیتی قوی است که دیکته می‌کند چگونه داده‌ها – به‌ویژه داده‌های ویدیویی – جمع‌آوری، ذخیره، پردازش و در آموزش مدل‌های یادگیری ماشین استفاده می‌شوند.

یاداو خاطرنشان کرد: «ملاحظات مربوط به حریم خصوصی در امنیت ویدیویی که در آن اطلاعات حساس دائماً ضبط می‌شود، بسیار مهم است. شرکت‌های VMS باید چارچوب‌های حاکمیتی روشنی برای استفاده از داده‌ها، به‌ویژه هنگام آموزش مدل‌های هوش مصنوعی، توسعه دهند. ما در حال بررسی چگونگی بهره‌برداری اخلاقی از داده‌های ویدیویی و ایجاد سیستم‌هایی هستیم که بر روی داده‌های با منابع مسئولانه آموزش دیده‌اند.»

موضوع سوگیری (Bias) یکی از پایدارترین – و بالقوه خطرناک‌ترین – چالش‌ها در توسعه هوش مصنوعی باقی مانده است. داده‌های آموزشی مغرضانه می‌تواند منجر به سیستم‌هایی شود که به طور ناعادلانه گروه‌های جمعیتی خاصی را هدف قرار می‌دهند یا نادیده می‌گیرند و خطرات نظارت بیش از حد (over-policing) و تشخیص ناکافی (under-detection) را ایجاد می‌کنند.

یاداو گفت: «سوگیری چالش حیاتی دیگری را ارائه می‌دهد. سیستم‌های هوش مصنوعی از داده‌های آموزشی خود یاد می‌گیرند و هرگونه سوگیری در سیستم‌های حاصل منعکس خواهد شد. هوش مصنوعی عالی نه تنها به داده‌های فراوان، بلکه به داده‌های متنوع و با منابع اخلاقی نیاز دارد که طیف کاملی از سناریوها را بدون طرفداری ناعادلانه از گروه‌ها یا موقعیت‌های خاص پوشش دهد.»

 

پیامدها برای یکپارچه‌سازان (Integrators) و کاربران نهایی

 

برای یکپارچه‌سازان سیستم‌ها، مشاوران و کاربران نهایی، تکامل هوش مصنوعی در نظارت تصویری هم فرصت‌های جدید و هم مسئولیت‌های جدیدی را ارائه می‌دهد. از یک سو، اتوماسیون مبتنی بر هوش مصنوعی وعده بهبود کارایی عملیاتی، کاهش تعداد هشدارهای کاذب و امکان پاسخگویی سریع‌تر را می‌دهد.

از سوی دیگر، این امر مستلزم درک عمیق‌تری از نحوه عملکرد این سیستم‌ها – و اینکه چه استانداردهای اخلاقی باید برای آن‌ها در نظر گرفته شود – است.

این گذار همچنین مستلزم تغییر در آموزش است. پرسنل امنیتی نه تنها باید در مورد نحوه استفاده از ابزارهای هوش مصنوعی، بلکه در مورد نحوه نظارت بر آن‌ها نیز آموزش ببینند. یکپارچه‌سازان باید بدانند که چگونه پیشنهادات هوش مصنوعی را از نظر سوگیری، انطباق با حریم خصوصی و شفافیت عملیاتی ارزیابی کنند.

علاوه بر این، خریداران در حال دقیق‌تر شدن هستند. سازمان‌ها به طور فزاینده‌ای به دنبال شرکایی هستند که نه تنها عملکرد فنی، بلکه تعهد روشنی به توسعه مسئولانه هوش مصنوعی ارائه دهند. همانطور که یاداو گفت: «کاربران شرکای امنیتی را بر اساس سابقه اخلاقی آن‌ها انتخاب می‌کنند.»

 

نگاه به آینده

 

هر دو شرکت Genetec و Milestone موافق هستند که مسیر پیش رو در مشارکت – بین هوش انسانی و یادگیری ماشین، بین نوآوری و حاکمیت – نهفته است. هوش مصنوعی جایگزین عنصر انسانی در امنیت تصویری نخواهد شد؛ در عوض، آن را بازتعریف کرده و ارتقا خواهد داد.

ماتوسک گفت: «سیستم‌های هوش مصنوعی باید توانایی‌های کاربران را تقویت کنند، نه اینکه جایگزین آن‌ها شوند.» این احساس به خوبی ممکن است نسل بعدی نظارت تصویری را تعریف کند: هوشمند، اخلاقی و مهم‌تر از همه، انسان‌محور.

همانطور که مأموران هوش مصنوعی به بلوغ خود ادامه می‌دهند، چالش پیش روی صنعت امنیت این خواهد بود که این پتانسیل را مسئولانه بپذیرد – و اطمینان حاصل کند که نظارت هوشمندتر به قیمت از دست دادن اعتماد، انصاف یا پاسخگویی تمام نمی‌شود.

EnglishIran