چطور دولت‌ها می‌توانند حقانیت سیستم‌های هوشمند خود را ایمن‌سازی کنند؟

0
55
هوش مصنوعی
هوش مصنوعی

چکیده: سازمان‌های دولتی در سرتاسر دنیا برای بهبود سیاست‌گزاری و ارائه‌ی خدمات به هوش مصنوعی روی می‌آورند. در این حین، آن‌ها دو مانع بزرگ سر راه خود می‌بینند: فناوری اغلب بسیار پر سر و صداست، و یک اضطراب عمومی در مورد مسائل اخلاقی که ممکن است در استفاده از آن ایجاد شود وجود دارد. 

با اینکه هوش مصنوعی می‌تواند کارهای تکرارپذیر و کاملاً تعریف شده را خودکار کرده و تصمیم‌گیریِ انسانی را بهبود دهد، دولت‌ها باید بسیار در مورد جهت‌های آینده‌ی آن با احتیاط پیش بروند. وقتی که هوش مصنوعی به دامنه‌های حساس و پر بحث وارد می‌شود، شهروندان در مورد معانیِ این نوع فناوری نگران می‌شوند. ما بر این باور هستیم که هوش مصنوعی را می‌توان در دولت به کار برد تا نتایج خوبی برای شهروندان ایجاد نماید، و حتی می‌توان در برابر پشت پرده‌ی عدم قاطعیت و عدم اعتماد، دستیابی به هدف را قابل دسترس کرد. اما چطور می‌توانیم آن را ایمن کنیم؟

در یک گزارش جدید با عنوان، سنگ محک‌های دولت دیجیتال BCG 2018: شهروندان در مورد استفاده از هوش مصنوعی دولت چه فکر می‌کنند، از ۱۳هزار کاربر اینترنتی در ۳۰ کشور نظرسنجی انجام شده است. حدود ۳۰ درصد پاسخ دهندگان بسیار نگران این بودند که هنوز مسائل اخلاقی هوش مصنوعی حل نشده‌اند.

سازمان‌های دولتی در سرتاسر دنیا برای بهبود سیاست‌گزاری و ارائه‌ی خدمات به هوش مصنوعی روی می‌آورند. در این حین، آن‌ها دو مانع بزرگ سر راه خود می‌بینند: فناوری اغلب بسیار پر سر و صداست، و یک اضطراب عمومی در مورد مسائل اخلاقی که ممکن است در استفاده از آن ایجاد شود وجود دارد، همانطور که توسط بررسیِ گروه مشاوره‌ی Boston کاشف به عمل آمد. ما در مورد هر دو مسئله واقع‌گرا عمل می‌کنیم، و در گزارش جدید خود اشاره می‌کنیم که چه کاری کنیم هوش مصنوعی برای دولت و مردم کارکرد داشته باشد. نتیجه‌گیریِ اصلیِ ما این است که برای اینکه هوش مصنوعی بتواند ابزار ارزشمندی برای دولت و شهروندان باشد، باید حقانیت داشته باشد – منبع عمیقی از پشتیبانی که دولت برای دستیابی به تأثیر عمومیِ مثبت باید آن را داشته باشد.

با اینکه هوش مصنوعی می‌تواند کارهای تکرارپذیر و کاملاً تعریف شده را خودکار کرده و تصمیم‌گیریِ انسانی را بهبود دهد، دولت‌ها باید بسیار در مورد جهت‌های آینده‌ی آن با احتیاط پیش بروند. وقتی که هوش مصنوعی به دامنه‌های حساس و پر بحث وارد می‌شود، شهروندان در مورد معانیِ این نوع فناوری نگران می‌شوند. ما بر این باور هستیم که AI را می‌توان در دولت به کار برد تا نتایج خوبی بر ای شهروندان داشته باشد، و حتی می‌توان در برابر پشت پرده‌ی عدم قاطعیت و عدم اعتماد، دستیابی به هدف را قابل دسترس کرد. اما چطور می‌توانیم آن را ایمن کنیم؟

 در یک گزارش جدید با عنوان، سنگ محک‌های دولت دیجیتال BCG ۲۰۱۸: شهروندان در مورد استفاده از هوش مصنوعی دولت چه فکر می‌کنند، گروه مشاوره‌ی بوستون از ۱۳هزار کاربر اینترنتی در ۳۰ کشور نظرسنجی انجام دادند. حدود ۳۰ درصد پاسخ دهندگان بسیار نگران این بودند که هنوز مسائل اخلاقی هوش مصنوعی حل نشده‌اند.

  • درک نیازهای واقعیِ کاربران نهایی

دولت‌ها باید مداخله‌های هوش مصنوعیِ خود را بر پایه‌ی نیازهای کاربران نهایی بنا کنند که ممکن است کارکنان خط مقدم و یا خود شهروندان باشند. این نوع مداخله‌ها باید تنوع تجربه‌ی کارکنان و دیدگاه‌هایشان را منعکس نماید و به صورت ایده‌آل آن‌ها را از ابتدای پروژه‌های جدید به عنوان طراح هم‌پا درگیر کار کنند. باید این نوع ارتباطات موثق و معتبر ایجاد شوند تا فرآیند توسعه‌ی AI موفق شود، و سطوح اعتماد کاربران نهایی برای دولت افزایش یابد.

  • تمرکز بر روی کارهای به خصوص و انجام‌پذیر

برنامه‌های هوش مصنوعی دولتی وقتی که محدود، مشخص و کاملاً تعریف شده باشند بهترین کارایی را خواهند داشت، مانند هدایت جستار شهروندان به مقصد درست. آن‌ها به ندرت کل نقش‌ها را جایگزین خواهند کرد، اما با اتوماسیون کارهای مشخص آن‌ها را تغییر شکل می‌دهند. این باعث می‌شود کارکنان دولتی وقتشان آزاد‌تر شده و بر روی کارهای خلاقانه‌تر و حل مشکلات شهروندان تمرکز کنند که باعث می‌شود  ارائه خدمات را بهبود داده و رضایت شغلیِ خود آن‌ها را بهبود دهد. 

ایجاد سواد هوش مصنوعی در سازمان و عموم

دید ما این است که دولت‌ها دارای سه متد کلی برای توسعه‌ی سواد هوش مصنوعی هستند: ابتدا، آموزش به کارمندان رسمی برای شناسایی کاربردهای احتمالی در کار خود در دولت. دوم، امکان‌دهی به کارکنان خط مقدم برای بهبود مهارت‌های همکاریِ AI – باید بتوانند با سیستم‌ها و توسعه‌دهندگان خود کار کرده و به صورت مکرر ارزیابی کنند که آیا می‌توان به نتیجه‌های سیستم اعتماد کرد یا نه. و سوماً، تشویق آموزش و بحث با درگیری با رسانه‌ها، سازمان‌های آموزشی و فرهنگی، گروه‌های جوامع مدنی، و تک تک شهروندان برای توسعه‌ی کلام هوش مصنوعی.

  • تداوم در حفظ و نگهداری و بهبود سیستم‌های هوش مصنوعی

 دولت‌ها در محیط بسیار پرتقاضایی سیستم‌های هوش مصنوعی را توسعه می‌دهند، که در آن فناوری‌ها، داده‌ها، سیاست‌ها و قوانین شناور بوده و در معرض تغییر قرار دارند. آن‌ها باید هرگونه ریسکی که ممکن است باعث شکست سیستم‌ها شود را پیشبینی و مدیریت کنند، و حقوق سیستم‌ها و فناوریِ آن‌ها در حالت کلی زیرسوال نرود. نگه‌داری و بهبود سیستم‌های هوش مصنوعی بسیار حیاتی است و باید در ابتدای هر پروژه‌ای در نظر گرفته شود.

  • طراحی و در برگیریِ بررسی‌های موشکافانه

یک جنبه‌ی مهم برای اطمینان از برحق بودن این است که به صداهای افراد و گروه‌های جوامع مدنی گوش داد و با آن‌ها تعامل کرد. دولت‌ها باید کاملاً در مورد سیستم‌های AI خود باز باشند، و هرگاه ممکن باشد آن‌ها را به صورت آنلاین در اختیار جامعه مدنی قرار دهند. آن‌ها باید بررسی‌های موشکفانه‌ای از طرح و کد سطح پایین سیستم‌های خود انجام دهند و از نظر فنی محکم و بدون هرگونه تبعیض و تعصب باشند.

ایجاد استراتژیِ هوش مصنوعی سازمانی

دولت‌ها باید محیط مناسبی برای نوآوری ایجاد کنند، که پایه و اساس هر نوع استراتژیِ هوش مصنوعی است. اولویت این است که با استخدام افراد درست و امکان‌دهی به آن‌ها برای یادگیری و به اشتراک‌گذاری مهارت خود با سایر متخصصان حوزه، یک جامعه با متخصصان هوش مصنوعی ساخته شود. دوراندیشی ضروری است – دولت‌ها باید با سازمان‌های آکادمیک، شریک‌های صنعتی و سایر سازمان‌های دولتیِ ملی و بین‌المللی همکاری داشته باشند.

دولت‌ها باید با دانشمندان داده و توسعه‌دهندگان AI در مورد سرمایه‌گذاری در زیرساخت‌های جدید مشاوره کنند، به طوری که با سیستم‌ها، پایگاه‌های داده و جریان‌های کاریِ AI فعلیِ آن‌ها سازگاری داشته باشد. زیرساخت فنیِ کلی باید شفافیت را بهبود دهد، به طوری که شهروندان و جوامع بتوانند به داده‌ها و منطق سیستم‌های AI دسترسی داشته باشند که می‌تواند در زندگیِ آن‌ها تأثیرگذار بوده و نگرانی‌هایی در مورد صحت و عینی بودن آن‌ها ایجاد نکند.

در تعریف فرآیند‌ها و بازه‌های زمانی برای تهیه‌ی فناوری و توسعه‌ی آن، دولت‌ها نباید در عوض تجربه و آزمایش بر روی مدیریت ریسک تمرکز داشته باشند. تنها با در نظر داشتن فرصت‌های نوظهور برای نوآوری، دولت‌ها می‌توانند استفاده‌ی مفید و برحقی از AI از طرف شهروندان داشته باشند.

منبع: centreforpublicimpact