آیا می توانیم تعصب کمتری نسبت به خود در ربات های خود داشته باشیم؟


رعایت این اعلامیه محققان را از کار بر روی ربات هایی که عملیات جستجو و نجات یا در زمینه جدید “رباتیک اجتماعی” را انجام می دهند منع خواهد کرد. یکی از پروژه های تحقیقاتی دکتر بیتل توسعه فناوری است که با استفاده از ربات های کوچک انسان نما برای مصاحبه با کودکانی که مورد آزار ، سو ab استفاده جنسی ، قاچاق یا جراحات دیگری قرار گرفته اند ، مصاحبه می کند. در یک مطالعه اخیر ، 250 کودک و نوجوان که به دلیل زورگویی مصاحبه کرده بودند ، اغلب مایل بودند به اطلاعاتی به یک روبات اعتماد کنند که برای یک بزرگسال فاش نمی کنند.

دکتر بتل ، که یک مصاحبه پزشکی قانونی آموزش دیده است ، گفت که “داشتن یک ربات به اتاق دیگر توسط یک محقق می تواند به مصاحبه های دردناک و آموزنده با کودکان زنده مانده منجر شود.”

وی گفت: “قبل از اینکه در مورد رباتیک و پلیس صحبت کنید ، باید منطقه مشکل را درک کنید.” “آنها خلاصه های زیادی را بدون اطلاعات زیادی انجام می دهند.”

دکتر کرافورد یکی از امضا کنندگان نامه های سرگشاده به عدم عدالت ، بدون ربات و سیاه در محاسبات است. “و شما می دانید ، هر زمان چنین اتفاقی می افتد یا تحقق می یابد ، به ویژه در جامعه ای که من کار می کنم ، من سعی می کنم اطمینان حاصل کنم که از او حمایت می کنم. “

دکتر جنکینز از امضای بیانیه عدم عدالت امتناع ورزید. وی گفت: “من فکر کردم که ارزش فكر كردن است.” “اما در پایان ، من فکر کردم که مشکل بزرگتر نمایندگی در اتاق است – در آزمایشگاه تحقیق ، در کلاس و تیم توسعه ، هیئت اجرایی.” بحثهای اخلاقی باید ریشه در این اولین مسئله اساسی حقوق شهروندی داشته باشد. او گفت.

دکتر هوارد هیچ یک از اظهارات را امضا نکرد. وی مجدداً تأكید كرد كه الگوریتمهای مغرضانه تا حدی نتیجه دموگرافیك تحریف شده – سفید ، مرد ، جسمی توانا – طراحی و آزمایش نرم افزار بوده است.

وی گفت: “اگر افراد خارجی که دارای ارزشهای اخلاقی هستند با این نهادهای اجرای قانون کار نمی کنند ، پس چه کسی است؟” وقتی شما نه بگویید ، دیگران می گویند بله. خوب نیست اگر کسی در اتاق نباشد که بگوید: “هوم ، من اعتقاد ندارم که یک روبات باید بکشد”.


منبع: khabar-aseman.ir

دیدگاهتان را بنویسید

Comment
Name*
Mail*
Website*