هوش مصنوعی یک نیروی قدرتمند است و بسته به اینکه چگونه از آن استفاده کنیم و چه کسی آن را کنترل می کند، می تواند تأثیر مثبت یا منفی بر جامعه بگذارد.
سیستمهای هوش مصنوعی اغلب بر روی مجموعه دادههای عظیمی آموزش داده میشوند که معمولاً برای مقرونبهصرفه بودن و سهولت از وب حذف میشوند. اما این بدان معناست که هوش مصنوعی میتواند همه سوگیریهای انسانهایی که آنها را طراحی میکنند و هر موجودی در دادههایی که آنها را تغذیه میکند به ارث ببرد. نتیجه نهایی آینه جامعه است، با تمام زشتی ها.
از سوی دیگر ؛ هوش مصنوعی در حال بازطراحی نظم جهانی میباشد و یکی از پیامدهای منفی هوش مصنوعی این است که میتوان از آن برای ایجاد و انتشار اطلاعات نادرست یا گمراهکننده، دروغها و حقایق توهمآمیز استفاده کرد که میتواند اعتماد، هویت و احساس واقعیت ما را تضعیف کند. این همان چیزی است که آن را باید دنیای پسا حقیقت هوش مصنوعی بنامیم.
به عنوان مثال، برخی افراد از هوش مصنوعی برای ایجاد تصاویر یا ویدیوهای جعلی استفاده می کنند که واقعی به نظر می رسند اما واقعی نیستند. آنها می توانند از اینها برای انتشار اطلاعات نادرست، تبلیغات، یا شایعاتی استفاده کنند که می تواند ما را گیج کند یا ما را وادار کند چیزهایی را باور کنیم که درست نیستند. این می تواند بر اعتماد، هویت و احساس واقعیت ما تأثیر بگذارد. به عنوان مثال، ممکن است ویدیوهای جعلی از افراد مشهور یا سیاستمداران دیده باشید که کارهایی را انجام می دهند که هرگز انجام نداده اند. از این ویدئوها می توان برای دستکاری افکار عمومی یا آسیب رساندن به شهرت استفاده کرد.
دنیای پسا حقیقت هوش مصنوعی همچنین میتواند با ایجاد دروغهایی که بیعدالتی را که برخی گروهها یا مناطق با آن مواجه هستند، توجیه یا پنهان کند، و به استعمار الگوریتمی کمک کند. به عنوان مثال، برخی از دولت ها ممکن است از هوش مصنوعی برای سانسور یا تحریف اطلاعاتی استفاده کنند که نقض حقوق بشر یا فساد آنها را افشا می کند. این می تواند شناخت حقیقت و پاسخگویی آنها را برای ما دشوارتر کند.
دنیای پسا حقیقت هوش مصنوعی می تواند پیامدهای عمیقی برای معماران و طراحان جوانی داشته باشد که برای کار خود به اطلاعات و ارتباطات متکی هستند. آنها ممکن است برای تأیید منابع و صحت داده هایی که استفاده می کنند یا خروجی هایی که با ابزارهای هوش مصنوعی تولید می کنند به کمک نیاز داشته باشند. آنها همچنین ممکن است با استفاده از ابزارهای هوش مصنوعی که ممکن است اطلاعات یا تصاویر نادرست یا مضر ایجاد کنند، با معضلات اخلاقی روبرو شوند. آنها همچنین ممکن است در صورت استفاده ناآگاهانه از محتوای جعلی یا ناقض ایجاد شده توسط هوش مصنوعی یا به اشتراک گذاری آن با خطرات قانونی روبرو شوند.
برای جلوگیری یا مقابله با دنیای پسا حقیقت هوش مصنوعی، معماران و طراحان جوان باید:
یکی دیگر از پیامدهای منفی هوش مصنوعی این است که می توان از آن برای سوء استفاده بهره برد. برای مثال، برخی از نهادهای قدرتمند، مانند شرکتهای بزرگ فناوری یا دولتها، از هوش مصنوعی برای جمعآوری، تجزیه و تحلیل و استفاده از دادهها، منابع یا افراد ما بدون رضایت یا منفعت ما استفاده میکنند. آنها می توانند از اینها برای پول درآوردن یا به دست آوردن قدرت با هزینه ما استفاده کنند. این چیزی است که آن را استعمار اگوریتمی می نامیم. به عنوان مثال، ممکن است شنیده باشید که چگونه فیس بوک داده های میلیون ها کاربر را بدون اطلاع آنها جمع آوری کرده و با کمبریج آنالیتیکا به اشتراک گذاشته است. این شرکت مشاوره سیاسی از آن برای تأثیرگذاری بر انتخابات در سراسر جهان استفاده کرد.
قدرت استعماری سنتی به دنبال قدرت و سلطه یک جانبه بر مردم استعمار شده از طریق کنترل حوزه اجتماعی، اقتصادی و سیاسی میباشد. در عصر الگوریتم ها، این کنترل و تسلط نه از طریق نیروی فیزیکی بی رحم ، بلکه از طریق مکانیسم های نامرئی و ظریف مانند کنترل اکوسیستم ها و زیرساخت های دیجیتال اتفاق می افتداشتراک استعمار سنتی و الگوریتمی، تمایل به تسلط، نظارت و تأثیرگذاری بر گفتمان اجتماعی، سیاسی و فرهنگی از طریق کنترل رسانه های ارتباطی و زیرساختی اصلی است. در حالی که استعمار سنتی اغلب توسط نیروهای سیاسی و دولتی هدایت می شود، استعمار الگوریتمی توسط انحصارات فناوری شرکت ها هدایت می شود – که هر دو در جستجوی انباشت ثروت هستند.
استعمار الگوریتمی همچنین میتواند با ایجاد شکاف یا تفاوت در افرادی که به فناوریهای هوش مصنوعی و روباتیک در میان جوامع یا کشورهای مختلف دسترسی دارند یا از آن بهره میبرند، بر انقلاب اتوماسیون روباتها تأثیر بگذارد. به عنوان مثال، برخی از کشورها ممکن است منابع یا مهارت های بیشتری برای توسعه و استفاده از هوش مصنوعی و روباتیک نسبت به سایرین داشته باشند و این باعث عدم تعادل قدرت و ثروت می شود. این می تواند رقابت یا همکاری در بازار جهانی را برای ما دشوارتر کند.
استعمار الگوریتمی همچنین میتواند با ایجاد مشکلات یا معضلاتی که فناوریهای هوش مصنوعی باید آنها را اخلاقی یا مسئولانه حل کنند، آنها را به چالش بکشد. برای مثال، برخی از نهادها ممکن است از هوش مصنوعی برای نقض حقوق، حیثیت یا رفاه ما از طریق تجاوز به حریم خصوصی، تبعیض علیه ما یا آسیب رساندن به ما استفاده کنند. این می تواند اعتماد یا بهره مندی از فناوری های هوش مصنوعی را برای ما دشوارتر کند.
در نتیجه ؛ استعمار الگوریتمی با حداکثر کردن سود به هر قیمتی هدایت میشود، و فرض میکند که روح، رفتار و کنش انسان ، مواد خامی برای گرفتن است . در در یک کلام ؛ استعمار الگوریتمی را میتوان “نظرات تعبیه شده در کد” نامید.
دکتری مهندسی پزشکی علم و صنعت ایران و علاقمند به حوزه سیگنال های حیاتی و هوش مصنوعی
اردیبهشت ۱۴, ۱۴۰۳
اردیبهشت ۷, ۱۴۰۳
اردیبهشت ۵, ۱۴۰۳
فروردین ۱۶, ۱۴۰۳
فروردین ۱۰, ۱۴۰۳