نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک سئو سی: سازمان پلیس اتحادیه اروپا در گزارشی تازه نسبت به ظهور موج نوظهور جرائم مبتنی بر روبات های مجهز به هوش مصنوعی و سامانه های خودمختار گوشزد نمود. به گزارش سئو سی به نقل از مهر؛ تحول در سیستم های خودران و روبات های انسان نما طی سالیان اخیر، از حوزه های آزمایشگاهی و صنعتی عبور کرده و به میدان های حقیقی عملیات و زندگی روزمره رسیده است. تجربه پهپادهای خودمختار در جنگ های معاصر، خصوصاً در جبهه های درگیری روسیه و اکراین، نشان داده است که فناوری های مبتنی بر هوش مصنوعی نه فقط توان نظامی را دگرگون می کنند، بلکه مرزهای اخلاق، مسئولیت و انتساب کنش را نیز مبهم می سازند. در چنین شرایطی، پرسش اصلی دیگر صرفا به جنگ محدود نمی ماند. گزارش تازه لابراتوار نوآوری نهاد پلیس اروپائی یوروپل، چشم اندازی را ترسیم می کند که در آن قابلیت های خودکار و نیمه خودکار، به دست شبکه های جنایی و تروریستی می افتد و کیفیت تهدیدات داخلی را متحول می کند. در این روایت، افق ۲۰۳۵ یک نقطه دوردست نیست. گزارش تاکید می کند که نشانه های انقلاب فناورانه از هم اینک وجود دارند. از افزایش مشاهده پهپادهای مورد استفاده در زیرساخت های اروپائی تا تشکیل بازارهای آنلاین برای عرضه خدمات هدایت پهپاد که به ادعای گزارش، الگوی «جرم به عنوان خدمت» را بسمت «جرم از طریق دور» سوق می دهد. مساله کلیدی این است که وقتی ابزارهای پیچیده، ارزان و در دسترس شوند، هم هزینه ارتکاب جرم کاسته می شود و هم نسبت کشف و انتساب دشوارتر می شود. از همین روی، نیروی پلیس نه فقط باید با فناوری روبرو شود، بلکه باید قواعد مسئولیت، استانداردهای اثبات و سازوکارهای پاسخ را نیز بازطراحی نماید. از سلاح در میدان نبرد تا ابزاری برای ارتکاب جرایم شهری متن گزارش یوروپل بر پیوند میان دو روند عادی شدن استفاده از سیستم های خودکار در میدان های درگیری و سرریز تدریجی همان ابزارها به حوزه جرایم سازمان یافته و تروریسم تاکید دارد. این سرریز الزاماً به مفهوم انتقال مستقیم تسلیحات پیشرفته نیست، بلکه انتقال دانش عملیاتی، مهارت های فنی، قطعات، الگوهای تاکتیکی و حتی نیروی انسانی آموزش دیده را شامل می شود. هنگامی که پهپاد به ابزار روزمره جنگ تبدیل می شود، در مرحله بعد، منطق بهره برداری از آن به حوزه های غیرنظامی راه می یابد. این انتقال، همان نقطه ای است که نظم عمومی با یک تهدید چندلایه مواجه می شود؛ تهدیدی که بصورت توأمان فیزیکی و سایبری است و همزمان ماهیتی محلی و شبکه ای دارد. در همین چارچوب، گزارش اخطار می دهد که تا سال ۲۰۳۵ پلیس باید با پدیده «ارتکاب جرایم توسط روبات ها» مواجه شود. منظور از این عبارت، صرفا ارتکاب جرم با روبات به عنوان ابزار نیست، بلکه طیفی از سناریوها را در بر می گیرد؛ از پهپادهایی که در سرقت و عملیات تخریبی به کار می روند تا خودرو های خودران که در اثر سوءاستفاده یا حمله سایبری می توانند سبب لطمه به عابران شوند. گزارش در این بخش به نکته ای واقع گرایانه اشاره می کند: رخدادهای لطمه زا پیرامون خودرو های خودران، در مقطع کنونی و حال حاضر نیز مشاهده می شوند. ازاین رو بخش مهمی از اخطار یوروپل، بر «تسریع» و «گسترده شدن» مساله ای موجود تمرکز دارد و بر وقوع یک امر کاملا ناشناخته مبتنی نیست. پیچیدگی روبات انسان نما و دشواری تشخیص اهداف اگر پهپادها و خودرو های خودران را بتوان در قالب ابزارهای نسبتاً شفاف تحلیل کرد، روبات انسان نما یک لایه پیچیدگی جدید به این فرآیند می افزاید. گزارش تصریح می کند که روبات های انسان نما می توانند طوری طراحی شوند که تعامل پیچیده تری با انسان داشته باشند و همین ویژگی، تشخیص رفتار عمدی از اقدامات تصادفی را دشوارتر می سازد. در عمل، هرچه تعامل طبیعی تر و انسانی تر شود، «برداشت انسانی» از کنش نیز نقش پررنگ تری می گیرد و خطای ادراکی محتمل تر می شود. در چنین وضعیتی، مساله پلیس فقط مهار یک دستگاه الکترونیکی نیست و چالش اصلی فهمیدن «قصد» و «زنجیره کنترل» بحساب می آید. بعبارت دیگر، پاسخ به این پرسش که آیا یک رفتار خطرناک ناشی از دستور هدفمند در قالب حمله سایبری بوده است یا پیامد نقص فنی یا خطای یادگیری سامانه، اهمیت مضاعفی می یابد. این نکته در سطح حقوقی نیز دستاوردهای بسیاری در بر دارد. برای اینکه نظام عدالت کیفری، بصورت سنتی بر انتساب قصد و تقصیر بنا شده است. وقتی یک سامانه به ظاهر خودمختار کنشی انجام می دهد، تعیین فرد مسئول نیازمند بازسازی دقیق مسیر تصمیم گیری است. مسیری که می تواند میان کاربر، تولیدکننده، ارایه کننده نرم افزار، کاربر و مهاجم سایبری تقسیم شود. گزارش یوروپل با برجسته کردن همین ابهام، عملا مدعی می شود که تخصص های فنی صرف برای آینده کافی نخواهد بود و باید توان تحلیل انتسابی و فنی توأمان شکل بگیرد. ربات های درمانی لطمه پذیری انسان در حساس ترین نقطه یکی از هشدارهای برجسته گزارش، مساله ورود هوش مصنوعی و روبات ها به حوزه سلامت است. بر همین اساس، اگر روبات هایی مورد استفاده برای کمک در محیط های درمانی، هک شوند، نه فقط یک دارایی فناورانه را در معرض خطر می گذارند، بلکه بیمار را در وضعیت لطمه پذیری مستقیم قرار می دهند. معنای این گزاره، ارتقاء سطح تهدید از «اختلال در خدمت» به «تهدید مقابل جان و سلامت» است. به بیان دقیق تر، وقتی زیرساخت رباتیک در بستر سلامت قرار می گیرد، لطمه سایبری می تواند به دستاوردهای فوری و ملموس فیزیکی منجر شود. این بخش از گزارش، یادآور این حقیقت راهبردی است که پیوند خوردن هوشمندسازی با خدمات حیاتی، سطح ریسک را بصورت کیفی تغییر می دهد. در چنین وضعیتی، امنیت سایبری دیگر یک مساله صرفا فناورانه نیست، بلکه جزئی از ایمنی عمومی و اعتماد اجتماعی می شود. در چنین شرایطی، هر رخداد بزرگ در این عرصه، می تواند هراس عمومی ایجاد نماید و پذیرش اجتماعی نوآوری را عقب براند. اقتصاد خودکار و انگیزه های جدید برای جرم گزارش یوروپل همینطور تصویری اجتماعی نیز در رابطه با مساله جرایم رباتیک ارائه می کند. بر همین اساس، اشخاصی که درنتیجه اتوماسیون شغل خویش را از دست می دهند، امکان دارد برای بقا به سمت جرم گرایش پیدا کنند و در قالب های مختلف همچون جرم سایبری، تخریب و سرقت سازمان یافته اقدام نمایند. در این تصویر، هدف حملات می تواند «زیرساخت رباتیک» باشد. این بخش از گزارش یک گزاره قطعی نیست، اما به عنوان یک سناریوی قابل تصور مطرح می شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی خیلی برجسته است. به زبان سیاست گذاری، اگر اتوماسیون بصورت نامتوازن جلو برود و سازوکارهای حمایت اجتماعی، آموزش مجدد و تبدیل مهارت ها بموقع طراحی نشود، احتمال تشکیل ناامنی اجتماعی پیرامون فناوری بیشتر می شود. حتی اگر این سناریو در نهایت رخ ندهد، صرف طرح آن از جانب نهاد پلیسی اروپا، نشان داده است که مبحث جرم مبتنی بر روبات تنها با ابزارهای انتظامی حل شدنی نیست و به بسته های مکمل اقتصادی و اجتماعی نیاز دارد. پلیس آینده از تشخیص نقص فنی تا تشخیص حمله هدفمند علاوه بر همه موارد ذکر شده، یک نیاز عملیاتی نیز در قلب اخطار یوروپل قرار دارد. در این راستا، پلیس باید سریع تکامل یابد تا بتواند میان یک اختلال فنی و یک حمله عمدی تمایز بگذارد. مثال کلیدی گزارش، تصادف یک خودرو خودران است. در وضعیت فرضی، مأمور باید تشخیص دهد که حادثه بر اثر دستور هدفمند ناشی از حمله سایبری رخداده یا صرفا نقص فنی بوده است. این تشخیص، فقط یک داوری فنی نیست. نکته جالب آنکه متن گزارش حتی از برخی ابزارهای آینده نگرانه مانند تفنگ های معروف به «RoboFreezer» یا تورهایی اختصاصی مهار پهپاد نیز برای رویارویی با جرایم مذکور یاد می کند. به اعتقاد خیلی از کارشناسان، فارغ از اینکه توسعه این ابزارها تا چه حد واقع بینانه یا عملیاتی به حساب می آید، مواجهه با تهدید رباتیک، نیازمند تلفیقی از تجهیزات فیزیکی و قابلیت های سایبری و توان تحلیل داده است. از همین روی، پلیس آینده باید بتواند هم در میدان، یک سامانه پهپادی خودکار را مهار کند و هم در سطح دیجیتال، منشأ کنترل و مسیر فرمان را بازسازی نماید. شکاف میان سناریوی بدبینانه و موانع فنی و مقرراتی نکته مهم دیگر در گزارش مذکور و سناریوهای واکنشی نقل شده این است که خود یوروپل نیز بر قطعیت پیش بینی تاکید نمی نماید. سخنگوی این نهاد تصریح کرده است که آینده قابل پیش بینی و قطعی نیست. برخی کارشناسان نیز باور دارند که پیش بینی در رابطه با سال ۲۰۳۵ دشوار است، برای اینکه فناوری با سرعت تغییر می کند. در کنار این، دیدگاه های تردیدآمیز نیز به سناریوهای مطرح شده وجود دارد؛ همچون این که موانع فنی و موانع مقرراتی امکان دارد مانع تحقق سناریوهای خیلی افراطی شود و نباید انتظار داشت که پلیس رباتیک به سرعت در خیابان ها مستقر شود یا روبات ها به صورت کامل کار و اشتغال را از بین ببرند. در عین حال، این اختلاف نظرها، به جای آنکه از ارزش اخطار بکاهند، آنرا دقیق تر می کنند. مساله اصلی، تحقق دقیق یک تصویر سینمایی نیست؛ بلکه مساله این است که دامنه فناوری های خودکار در حال افزایش می باشد و جرم و رویارویی با جرم، دیر یا زود از این تحول اثر می پذیرد. حتی اگر قسمتی از سناریوهای شدید هیچ گاه رخ ندهد، بخش های میانه آنکه شامل افزایش سوءاستفاده از پهپادها، اختلال در زیرساخت های هوشمند و پیچیده شدن انتساب و اثبات است، می تواند کاملا واقع گرایانه باشد. پیام راهبردی گزارش امنیت رباتیک به مثابه حکمرانی ریسک اخطار یوروپل را می توان به عنوان نوعی دعوت به «حکمرانی پیش دستانه ریسک» فهم کرد. در این چارچوب، سیاست گذار باید هم زمان چند مسیر را دنبال کند. نخست، استانداردسازی امنیت برای سیستم های خودکار و رباتیک خصوصاً در عرصه های حساس دوم، توانمندسازی پلیس و دستگاه عدالت در عرصه ادله دیجیتال، انتساب حمله و تحلیل فنی حوادث سوم، ایجاد سازوکارهای نظارتی و پاسخگویی برای پیشگیری از شکستن حریم خصوصی به بهانه رویارویی با جرم گزاره کلیدی که از زبان مدیر اجرایی یوروپل نقل شده است، نقطه جمع بندی را می سازد. همان گونه که اینترنت و تلفن هوشمند فرصت ها و چالش های مهمی ایجاد کردند، فناوری های خودکار نیز همین مسیر را طی خواهند کرد. به بیان دیگر، می توان فناوری را یک «بستر دوگانه» توصیف کرد که ظرفیت ارتقاء رفاه و ایمنی و با این وجود ظرفیت گسترش تهدید را دارد. دراین میان، عنصر تعیین کننده، سرعت و کیفیت سازوکارهای امنیتی، مقرراتی و اجتماعی است که همگام با توسعه فناوری شکل می گیرد. سرانجام، گویی جرم برپایه فناوری رباتیک یک برساخته تخیلی نیست، بلکه یک افق محتمل است که رگه های آن از هم اینک مشاهده می شود و در این راستا، آینده پلیس و آینده امنیت عمومی، به میزان آمادگی دولت ها، صنعت و جامعه مدنی، قبل از وقوع بحران های بزرگ، وابسته است.به اجمال، در عمل، هرچه تعامل طبیعی تر و انسانی تر شود، برداشت انسانی از کنش نیز نقش پررنگ تری می گیرد و خطای ادراکی محتمل تر می شود. معنای این گزاره، ارتقاء سطح تهدید از اختلال در خدمت به تهدید مقابل جان و سلامت است. این بخش از گزارش یک گزاره قطعی نیست، اما به عنوان یک سناریوی قابل تصور مطرح می شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی خیلی برجسته است. منبع: seoc.ir 1404/10/07 10:08:41 5.0 / 5 4 تگهای خبر: آموزش , آنلاین , الكترونیك , اینترنت این مطلب سئوسی را می پسندید؟ (1) (0) تازه ترین مطالب مرتبط ثبت کم سابقه حدود 125 نشریه ایرانی در پایگاه های بین المللی جزییات آزمون اختصاصی دانشجو معلم سال ۱۴۰۵ امشب آخرین فرصت نام نویسی هوش مصنوعی مولد عکس و ویدئوی متا سال ۲۰۲۶ عرضه می شود افزایش 7 برابری بورس تحصیلی دولت های خارجی برای دانشجویان ایرانی نظرات بینندگان در مورد این مطلب نظر شما در مورد این مطلب نام: ایمیل: نظر: سوال: = ۶ بعلاوه ۳