اخبار

درخواست توقف توسعه بیشتر هوش مصنوعی بخاطر عواقب هوش مصنوعی برای جامعه

 درخواست توقف توسعه بیشتر هوش مصنوعی بخاطر عواقب هوش مصنوعی برای جامعه

در این مطلب از تترفا به بررسی این خبر می پردازیم. تا انتهای مطلب با ما همراه باشید.‌‌‌‌‌‌‌

بیش از 2600 رهبر فناوری و محقق، با امضای نامه‌ای سرگشاده خواستار توقف موقت توسعه بیشتر هوش مصنوعی (AI) شده‌اند؛ زیرا از “خطرات عمیق برای جامعه و بشریت” می‌ترسند.

ایلان ماسک، مدیرعامل تسلا، استیو وزنیاک (Steve Wozniak) از بنیان‌گذاران اپل و تعدادی از مدیران عامل هوش مصنوعی، مدیران ارشد فناوری و محققان، از جمله امضاکنندگان این نامه بودند که توسط اندیشکده آمریکایی مؤسسه آینده زندگی (FOLI) در 22 مارس منتشر شد.

این مؤسسه از همه شرکت‌ های هوش مصنوعی خواست تا آموزش سیستم‌ های هوش مصنوعی را که از GPT-4 قوی‌ تر هستند را برای حداقل 6 ماه «فوراً متوقف کنند».

درخواست توقف توسعه هوش مصنوعی
درخواست توقف توسعه هوش مصنوعی

و نگرانی‌هایی را در مورد اینکه «هوش رقابتی انسانی می‌تواند خطرات عمیقی برای جامعه و بشریت ایجاد کند» به اشتراک بگذارند:

هوش مصنوعی پیشرفته می‌تواند نشان‌ دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب، برنامه‌ریزی و مدیریت شود. متأسفانه این سطح از برنامه‌ریزی و مدیریت اتفاق نمی‌افتد.

ربات GPT-4 آخرین نسخه از چت ربات مبتنی بر هوش مصنوعی OpenAI است که در 14 مارس منتشر شد.

GPT-4 تا به امروز برخی از سخت‌ ترین امتحانات دبیرستان و حقوق ایالات متحده را با امتیاز 90 از 100 گذرانده است و گفته می‌شود که 10 برابر پیشرفته‌تر از نسخه اصلی ChatGPT است.

مؤسسه FOLI ادعا کرد:

که یک “مسابقه خارج از کنترل” بین شرکت‌های هوش مصنوعی برای توسعه هوش مصنوعی قوی‌ تر وجود دارد.

که “هیچ کس -حتی سازندگان آن‌ها- نمی‌توانند آن را درک کنند، پیش‌بینی کنند یا به طور قابل‌اعتماد کنترل کنند.”

«آیا باید ذهن‌های غیرانسانی را پرورش دهیم که در نهایت ممکن است از تعداد انسان‌ها پیشی بگیرند و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟»

در این نامه افزوده شده است: «چنین تصمیماتی نباید به رهبران فناوری منتخب واگذار شود.»

مایک نووگراتز، مدیرعامل گلکسی دیجیتال نیز اخیراً به سرمایه‌گذاران گفته‌‌‌‌‌ است که از میزان توجه نظارتی که به ارزهای دیجیتال شده‌‌‌‌‌، شوکه شده‌‌‌‌‌ است.

در حالی که توجه کمی به هوش مصنوعی می‌ شود.

با این حال، همه کارشناسان هوش مصنوعی برای امضای این طومار عجله نکرده‌اند.

بن گورتزل، مدیر عامل SingularityNET، در عوض گفت که تحقیق و توسعه برای چیزهایی مانند سلاح‌های زیستی و هسته‌ ای باید کند شود.

گردآوری : وبلاگ تترفا

میانگین امتیازات ۵ از ۵
از مجموع ۲ رای

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت توسط reCAPTCHA و گوگل محافظت می‌شود حریم خصوصی و شرایط استفاده از خدمات اعمال.

دکمه بازگشت به بالا