جمله امروز ما:
خدا به هر کی که دلش دریا باشه، کشتی میده.

یکشنبه, ۲۲ مهر , ۱۴۰۳ Sunday, 13 October , 2024 ساعت تعداد کل نوشته ها : 603 تعداد نوشته های امروز : 0 تعداد اعضا : 4 تعداد دیدگاهها : 43×
  • اوقات شرعی


    Warning: A non-numeric value encountered in /home/manajour/public_html/wp-content/plugins/azan/index.php on line 122

  • اخلاق هوش مصنوعی ، مشکل حساس عصر جدید
    15 آگوست 2023 - 17:18
    شناسه : 4460

    زمان مطالعه: ۲ دقیقه اخلاق هوش مصنوعی این مشکل دردسرساز شاید برای شما هم عنوان این نوشته عجیب باشد. اخلاق هوش مصنوعی؟ خب چه فایده ای دارد؟ کجای ماجرا حساس است؟ ابتدا باید کمی درباره اخلاق هوش مصنوعی با شما صحبت کنم. یک تعریف جامع و کاملی از این کلمه داشته باشیم. اخلاق هوش مصنوعی به مطالعه ارزش‌ها، اصول […]

    ارسال توسط :
    پ
    پ
    زمان مطالعه: ۲ دقیقه

    اخلاق هوش مصنوعی این مشکل دردسرساز

    شاید برای شما هم عنوان این نوشته عجیب باشد. اخلاق هوش مصنوعی؟ خب چه فایده ای دارد؟ کجای ماجرا حساس است؟ ابتدا باید کمی درباره اخلاق هوش مصنوعی با شما صحبت کنم. یک تعریف جامع و کاملی از این کلمه داشته باشیم.

    اخلاق هوش مصنوعی به مطالعه ارزش‌ها، اصول و رفتارهای اخلاقی مرتبط با تصمیم‌گیری و عملکرد سیستم‌ها و برنامه‌های هوش مصنوعی می‌پردازد. به عبارت شفاف تر، بررسی می شود که چگونه می‌توان اطمینان حاصل کرد که هوش مصنوعی در تعامل با انسان‌ها و در مواقعی که تصمیمات اخلاقی مورد نیاز است، به‌طور صحیح و اخلاقی عمل کند. این شامل مسائلی مانند تصمیم‌گیری در مواقع صحبت کردن، تعیین مسئولیت، عدالت و مخصوصا حفظ حریم خصوصی می‌شود.

    ماجرا حساس تر از این حرفاست

    به صورت خلاصه، دیدگاه های زیادی درباره اخلاق هوش مصنوعی وجود دارد. برای مثال دانشمندان درصدد پاسخ به این سوالات هستند که چگونه با تعریف اصول و قوانینی پیرامون مسائل مهم نظیر حقوق بشر، آزادی اجتماعی و سیاسی، مسائل روانشناسی، مثال جنسیتی و پزشکی و حتی آزادی بیان  بتوانند اخلاق هوش مصنوعی را رقم بزنند.
    مهم ترین مسئله ای که در این حوزه ذهن مرا به خود مشغول کرده است، دو بحث اساسی حریم خصوصی و روانشناسی است. به عنوان مثال اگر یک برنامه هوش مصنوعی (مثل chat gbt ) وجود داشته باشد که از توانایی درک گفتار و زبان بهره ببرد، اگر دسترسی به تمام ایمیل های ما ، صحبت های ما در مکالمات روزمره و تلفنی، یا نامه ها و سرچ های ما داشته باشد، آن را درک کند و از آن بر علیه ما استفاده کند یا به شخص ثالثی ارسال کند چه می شود؟

    یا اینکه برنامه هوش مصنوعی که از قدرت پردازش زبان برخوردار است، در مکالمه خود با یک فرد، او را از لحاظ عاطفی و روانی تحریک به کارهای غلط بکند و یا حتی او را تحت تاثیر قرار دهد، چه اتفاقی می افتد؟

    ماجرا بسیار حساس تر و مهم تر از آن است که ما فکر می کنیم.

    تهدید کرامت انسان

    مسئله ی دیگری که وجود دارد تهدید کرامت انسانی است. برخی معتقدند فناوری هوش مصنوعی نباید در موقعیت هایی که به توجه و مراقبت و احترام از نوع بشر دوستانه و انسانی نیاز است، به طور کامل جایگزین انسان شود.

    برای مثال یک درمانگر یک ،دایه یک سرباز یک ،قاضی یک افسر پلیس و غیره مواردی هستند که به نظر میرسد یک انسان بهتر میتواند در آن امور نقش آفرینی کند. ما انسانها در این موقعیت ها نیاز به احساس همدلی و درک متقابل داریم و اگر ماشینها جای ما را بگیرند خود را نسبت به آنها بیگانه میدانیم. از دیدگاه برخی از کارشناسان در چنین مواردی هوش مصنوعی یک تهدید برای کرامت انسانی به حساب می آید.

    مسئله دیگری که بسیاری از کارشناسان از آن میهراسند این است که جریان اصلی هوش مصنوعی در حال حاضر رو به تکنیکهایی آورده است که عموماً فاقد شفافیت کافی هستند و حتی توسعه دهندگان برنامه نیز به طور دقیق نمیتوانند مشخص کنند که چرا یک برنامه هوش مصنوعی به یک تصمیم خاص رسیده است. بدین منظور پروژههایی منبع باز شکل گرفته است.

    مجله مانا

    تبلیغ در سایت مانا

    ثبت دیدگاه

    • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
    • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
    • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.