هوش مصنوعی را قبل از اینکه خیلی دیر شود متوقف کنید
تاریخ انتشار: ۱۶ اسفند ۱۴۰۲ | کد خبر: ۳۹۸۹۵۲۴۶
در جهانی که به طور فزاینده تحت سلطه هوش مصنوعی(AI) قرار میگیرد، گروهی از کارشناسان خواستار تغییر به سمت فناوریهای انسان محور هستند.
به نقل از اساف، این گروه بینالمللی مخالف ایجاد فناوریهای جدید هوش مصنوعی صرفا برای ساخت رایانههای جدید و پیشرفتهتر است. در عوض، آنها توسعهدهندگان را ترغیب میکنند که بر روی فناوریهایی تمرکز کنند که واقعا نیازهای انسان را برآورده میکند و تجربه انسانی را افزایش میدهد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به گزارش ایسنا، کتاب جدید آنها، با نام «هوش مصنوعی انسان محور»، که شامل مشارکت ۵۰ متخصص از ۱۲ کشور در رشتههای مختلف، از جمله علوم رایانه، حقوق و جامعه شناسی است، به مفهوم تغییر هوش مصنوعی از پیشرفتهای مبتنی بر فناوری به پیشرفتهای متمرکز بر بشر میپردازد. این تضمین میکند که فناوریها به جای جایگزینی یا بی ارزش کردن کارگران انسانی، با رفاه مردم همسو شوند.
شانون والور(Shannon Vallor)، یک کارشناس برجسته از دانشگاه ادینبرو، تاکید میکند که هدف هوش مصنوعی انسانمحور حمایت و توانمندسازی انسانها است و در تضاد شدید با فناوری توسعهیافته صرفا برای نمایش قدرت است. او رشد هوش مصنوعی مولد را خاطرنشان و از توسعه آن انتقاد میکند که منجر به فناوریهایی میشود که مردم باید با آن سازگار شوند و با آن رقابت کنند، نه اینکه این فناوری طراحیشده زندگی افراد را آسانتر کند.
او میگوید: آنچه به دست میآوریم چیزی است که باید با آن کنار بیاییم، این برخلاف چیزی است که طراحی کردهایم تا برای ما سودمند باشد.
والور در یک بیانیه رسانهای توضیح میدهد که این فناوری آن چیزی نیست که ما به آن نیاز داریم و به جای تطبیق فناوریها با نیازهایمان، خودمان را با نیازهای فناوری تطبیق میدهیم.
این کتاب نگرانیهایی را در مورد مسیر فعلی توسعه هوش مصنوعی، از جمله تعصبات سیستمی و نگرانیهای حفظ حریم خصوصی، مطرح میکند. مالوینا آنا ووجسیک(Malwina Anna Wójcik) میگوید که جوامع به حاشیه رانده شده اغلب از فرآیند طراحی هوش مصنوعی حذف میشوند و در نتیجه فناوریهایی ایجاد میشود که ساختارهای قدرت موجود و تبعیض را تقویت میکند.
مت مالون(Matt Malone) در مورد اینکه چگونه هوش مصنوعی حریم خصوصی را به چالش میکشد، میگوید: در حالی که بسیاری از روشهای جمعآوری و استفاده از دادهها توسط هوش مصنوعی بیاطلاع هستند اما ادغام شدن فناوری در زندگی ما، فردیتمان را تهدید میکنند.
مالون توضیح میدهد: حریم خصوصی تعیین میکند که ما تا چه حد اجازه میدهیم فناوری به حوزههای زندگی و آگاهی انسان ورود کند. اما با محو شدن این موارد، حریم خصوصی به سرعت بازتعریف میشود و در حالی که هوش مصنوعی زمان، توجه و اعتماد بیشتری را به خود اختصاص میدهد، حریم خصوصی همچنان نقش تعیینکنندهای در ترسیم مرزهای بین انسان و فناوری ایفا میکند.
این گروه بینالمللی همچنین تاثیرات رفتاری هوش مصنوعی را بررسی کردند و نویسندگان نشان دادند که چگونه پلتفرمهایی مانند گوگل میتوانند جنبههای اصلی انسانی مانند عقلانیت و حافظه را تغییر دهند و کنترل شخصی بر زندگی ما را کاهش دهند. آنها استفاده از هوش مصنوعی در رسانههای اجتماعی را برای محدود کردن بالقوه منافع کاربران و سوق دادن آنها به سمت افراط گرایی از طریق توصیه محتوای مغرضانه مورد بررسی قرار دادند.
کارشناسان راهحلهای عملی را برای ادغام رویکرد انسان محور به هوش مصنوعی، از جمله تنوع در تحقیقات، همکاریهای بین رشتهای و شیوههای جمعآوری داده شفاف پیشنهاد میکنند. آنها همچنین بر اهمیت اعمال قوانین موجود برای هوش مصنوعی به جای بررسی مقررات کاملا جدید، تاکید میکنند و سیاستگذاران را تشویق میکنند تا با اطمینان هوش مصنوعی را کنترل کنند تا از نوآوریهای غیرمسئولانه جلوگیری شود.
مالون میگوید: هیچ کس عصای جادویی ندارد. بنابراین، من به سیاستگذاران میگویم موضوع را جدی بگیرید. بهترین کاری را که میتوانید انجام دهید. در حالی که سعی میکنید مکانیسمهای حاکمیتی درست را ارائه دهید، طیف وسیعی از دیدگاهها از جمله جوامع به حاشیه رانده شده و کاربران نهایی را به میز دعوت کنید. اما اجازه ندهید چند صدا که وانمود میکنند دولتها نمیتوانند هوش مصنوعی را بدون از بین بردن نوآوری کنترل کنند، شما را متوقف کند.
کانال عصر ایران در تلگراممنبع: عصر ایران
کلیدواژه: هوش مصنوعی متوقف کنید هوش مصنوعی انسان محور حریم خصوصی فناوری ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.asriran.com دریافت کردهاست، لذا منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۸۹۵۲۴۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
تشخیص گرایش سیاسی افراد از روی چهرهشان توسط هوش مصنوعی
هوش مصنوعی میتواند جهتگیری سیاسی افراد را از روی چهرههایشان پیشبینی کند که البته مباحثی را درباره تهدید حریم خصوصی به میان آورده است.
به گزارش ایسنا، پژوهشگران پس از مطالعهای که نشان داد هوش مصنوعی میتواند در پیشبینی جهتگیری سیاسی افراد بر اساس تصاویر چهرههای بدون حالت و بی احساس آنها موفق باشد، هشدار میدهند که فناوریهای تشخیص چهره «تهدیدکنندهتر از آنچه قبلاً تصور میشد» هستند و «چالشهای جدی برای حفظ حریم خصوصی» ایجاد میکنند،
به نقل از نیویورک پست، مطالعهای که به تازگی در مجله American Psychologist منتشر شده است، میگوید که توانایی الگوریتم هوش مصنوعی برای حدس زدن دقیق دیدگاههای سیاسی یک فرد خیره کننده است.
مایال کوزینسکی نویسنده اصلی این مطالعه گفت که ۵۹۱ شرکتکننده یک پرسشنامه درباره گرایش سیاسی را قبل از اینکه هوش مصنوعی گرایش سیاسی آنها را از چهرهشان توصیف کند، پر کردند و هوش مصنوعی تحلیل خود را با پایگاه داده حاصل از آن پرسشنامهها برای پیشبینی گرایش سیاسی آنها مقایسه کرد.
کوزینسکی که دانشیار رفتار سازمانی در دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد است، میگوید: من فکر میکنم که مردم متوجه نمیشوند که صرفاً با در اختیار قرار دادن یک عکس، چقدر خود را در معرض شناخت قرار میدهند.
ما میدانیم که گرایش جنسی، گرایش سیاسی و دیدگاههای مذهبی مردم باید محافظت شود. این قبلا متفاوت بود. در گذشته میتوانستید به حساب فیسبوک هر کسی وارد شوید و مثلاً دیدگاههای سیاسی، پسندها و صفحاتی که دنبال میکند را ببینید. اما سالها پیش فیسبوک این قابلیت را مسدود کرد، زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح بود که از نظر حریم خصوصی قابل قبول نیست و خیلی خطرناک است.
اما همچنان میتوان به فیسبوک رفت و عکس هر کسی را دید. شخصی که عکسش را میبینید احتمالا هرگز شما را ندیده است و هرگز گرایش سیاسی خود را با شما به اشتراک نگذاشته است. با این حال، آنچه این مطالعه جدید نشان داده این است که تنها از روی عکس یک فرد، هر چند بدون احساس و حالت باشد، گرایش سیاسی وی را حدس زد.
پژوهشگران برای این مطالعه تصاویر شرکت کنندگان را به شیوهای بسیار کنترل شده جمعآوری کردند.
آنها میگویند شرکت کنندگان یک تیشرت مشکی ساده پوشیده بودند و زیورآلات خود را درآورده بودند و در صورت لزوم ریش خود را اصلاح کرده بودند. سپس از دستمال مرطوب صورت برای از بین بردن لوازم آرایشی استفاده شد تا زمانی که هیچ چیز روی پوست آنها باقی نماند. موهای بلند آنها با استفاده از کش مو، سنجاق مو و هدبند به عقب کشیده شد و در عین حال مراقب بودند که موهایشان بیرون نیاید.
سپس الگوریتم تشخیص چهره VGGFace۲ تصاویر چهره آنها را بررسی کرد.
نویسندگان میگویند، یافتههای آنها بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی افراد تأکید میکند.
آنها افزودند: شاید مهمتر از همه اینکه یافتههای ما نشان میدهد که فناوریهای نظارت بیومتریک گستردهتر از آنچه قبلا تصور میشد، تهدیدکننده هستند. در هر حال نتایج ما نشان میدهد که ویژگیهای صورت حتی در حالت خنثی و بدون ابراز احساسات نیز مقدار قابل توجهی از نشانهها را منتقل میکند که استفاده از فناوری تشخیص چهره میتواند نشان دهنده کنترل کمتر افراد بر حریم خصوصی خود باشد.
کوزینسکی میگوید، الگوریتمها را میتوان به راحتی برای میلیونها نفر به شکل بسیار سریع و ارزان اعمال کرد و مطالعه ما بیشتر یک داستان هشداردهنده در مورد این فناوری است که در تلفن همه وجود دارد و در همه جا به وفور استفاده میشود.
پژوهشگران در پایان به این نتیجه رسیدند که حتی تخمینهای خام از ویژگیهای شخصیتی افراد میتواند کارایی کمپینهای متقاعدسازی انبوه آنلاین را به طور قابل توجهی بهبود بخشد و پژوهشگران، مردم و سیاستگذاران باید توجه داشته باشند و سیاستهای سختگیرانهای را برای تنظیم ضبط و پردازش تصاویر چهره در نظر بگیرند.
انتهای پیام