2024 Автор: Adelina Croftoon | [email protected]. Соңғы өзгертілген: 2023-12-17 02:13
Адамзаттың өмір сүруіне қауіп төндіретін супер интеллектуалды компьютерлер немесе роботтар - фантастиканың сүйікті сюжеті. Шындығында, ғалымдардың пікірінше, мұндай ақырзаман сценарийін жасанды интеллект (ЖИ) үшін виртуалды «түрме» құру арқылы ғана болдырмауға болады. Және бұл ол өзін тануды және өзін жетілдіруді үйренмес бұрын жасалуы керек..
Егер сіз бұл жынды бөтелкеден шығарсаңыз, онда біздің мәселелерді шешетін оракулден ол апокалиптикалық қауіпке айналуы мүмкін, - дейді Кентуккидегі Луисвилль университетінің ғалымы, информатика саласында жұмыс істейтін Роман Ямпольский. АИ болуы шарттары қатер, пара алу, азғыру немесе компьютерлік бұзу арқылы босатылмайтындай етіп мұқият жоспарлануы керек.
«Ол күрделі әлеуметтік-инженерлік комбинацияға әсер етудің, қолда бар аппараттық компоненттерді біз елестете алмайтын мақсаттарда қолданудың көптеген әдістерін ойлап таба алады»,-деп санайды Ямпольский. - Мұндай бағдарламалық қамтамасыз етудің компьютерлер мен желілерді жұқтырудың шексіз мүмкіндіктері бар. АИ адам психикасына әсер етудің жолдарын таба алады, онымен байланыста болған адамдарға пара беру немесе бопсалау ».
Жасанды интеллект үшін «түрме» құру мәселесімен айналысатын жаңа ғылыми зерттеулердің пайда болуы қосымша артықшылықтарға ие. Бұл зерттеулер компьютерлік қауіпсіздік пен криптографияны жақсарту үшін өте пайдалы, Ямпольский сенімді. Оның ұсыныстары академиялық сана -сезім журналының наурыздағы санында егжей -тегжейлі айтылды.
Skynet үшін тұзақты қалай орнатуға болады
Жаңадан бастаушылар үшін жасанды интеллекті «виртуалды машинаның» ішіне қосуға болады. Ол қалыпты операциялық жүйеде жұмыс істей берсін - негізгі компьютердің бағдарламалық жасақтамасы мен аппараттық құралына АИ қол жеткізуді шектеу оны әлдеқайда зиянсыз етеді. Қалай болғанда да, ақылды AI өзінің жанкүйерлеріне Морзе кодын салқындататын желдеткіштермен ұрып -соғып, құпия хабарламалар жібере алмайды.
Интернетке қосылусыз компьютерге жасанды интеллект енгізу - бұл Жерді сізден және бізден қорғау жөніндегі жасырын жоспарларын бұзудың жақсы әдісі. Кез келген басқа ақаулық болған жағдайда, зерттеушілер әрқашан компьютерді өңдеу жылдамдығын баяулату, қалпына келтіру түймесін үнемі басу немесе АИ -ді қуат көзінен ажырату арқылы AI ойлау процесін баяулатуы мүмкін.
Бұл қауіпсіздік шаралары жоғары интеллектуалды және қауіпті компьютерлік вирустармен күресуге арналған, бірақ олардың қаншалықты тиімді болатынын кез келген адам болжайды.
Catch-22 (американдық жазушы Дж. Хеллердің романы; шамамен. Mixednews)-біз AI-дің дамуы аяқталмайынша өз идеяларымызды толық көлемде тестілеуді жүргізе алмаймыз. Бірақ АИ қауіпсіздігін қамтамасыз ету үшін тиісті шаралар кешенін әзірлеу қажет, дейді Ямпольский. «Ең жақсы нұсқа - бұл AI жүйесін қолдануға шектеулер енгізу, содан кейін қажет болған жағдайда AI шектеулерінің артуына сәйкес өзгерту».
Көлікке адам күзетшісін ешқашан қоймаңыз
Күзетшімен жазықсыз болып көрінген әңгіме кезінде АИ -ге достық немесе бопсалау сияқты психологиялық әдістерді қолдануға еш нәрсе кедергі болмайды. Адамға мінсіз денсаулық, өлместік немесе басқа әлемдегі туыстары мен достарын қайтаруға уәде беру арқылы пара алуға болады. Немесе қорқытумен кез келген нәрсеге қол жеткізіңіз.
АИ -мен байланыс жасаудың ең қауіпсіз әдісі - бұл белгілі бір ғылыми немесе техникалық мәселені шешу кезінде қол жетімді көптеген нұсқалардың ішінен жауапты таңдау, - деп түсіндіреді Ямпольский. Бұл супер-ақылды оракалды қысқа серпімді ұстауға көмектеседі.
Көптеген зерттеушілер барлық сақтық шараларына қарамастан, ақылды интеллектті құлыпта ұстау ешқашан сәтті болмайды деп санайды. Сингулярлық институтының зерттеушісі Элиезер Юдковскийдің жасанды интеллект жасау жөніндегі соңғы эксперименті тіпті адам деңгейіндегі интеллект адамды алдап, түрмеден «қашып» кететінін көрсетті.
Соған қарамастан, Ямпольский АИ -ны қатаң оқшаулауда ұстауды талап етеді - бұл бас тартудан және оған толық еркіндік бергеннен гөрі жақсы. Бірақ егер АИ дамуы адамды санадан (болашақты болжау), телепатиядан немесе телекинезден пайдаланып манипуляциялай алатын деңгейге жетсе, оның салдарын болжау мүмкін болмайды.
«Егер мұндай АИ өзін-өзі жетілдіріп, адам интеллектінің мүмкіндіктерінен едәуір асатын деңгейге жететін болса, оның салдарын елестету мүмкін де емес»,-деп ескертеді Ямпольский.
Ұсынылған:
Шығу: Адамзат аман қалу үшін Марсты зерттеуі керек
Илон Маск: «Егер адамзат оның аман қалуына мүдделі болса, онда ол Марсқа миллион жерлестерін жіберуі керек. «Оған кел, мына Жер! - Илон Маск кенеттен маған күлді. - Ол туралы кім ойлайды? Біз оның кішігірім кеңсесінде, Лос -Анджелестегі SpaceX кеңсесінде орналасқан кең кеңсенің бұрышында отырдық. Бұл бейсенбі күні Маск болды, SpaceX -тен табуға болатын күндердің бірі. Бірақ Илон айлакер, ирониялық болды - ақыр соңында, ол бәрінен де артық болды
«Біз жасанды интеллектке қалай қол жеткізуге болатынын қазір ойлануымыз керек»
Стивен Хокинг жасанды интеллектке (AI) қарсы «крест жорығын» жалғастыруда. Көптен күткен Reddit -те барлығын сұра науқанында ол AI қауіпсіздік хаттамасын әзірлеу жұмысы алыс болашақта емес, дәл қазір жасалуы керек деп жазды. «Біздің мақсатымыз дерексіз жасанды интеллект құру емес, пайдалы интеллект құру болуы керек, - деп жазды атақты физик, - мұны қалай жасау керектігін анықтау үшін ондаған жылдар қажет, сондықтан иә
Стивен Хокинг жасанды интеллекті тарихтағы ең үлкен қателік деп атайды
Атақты британдық физик Стивен Хокинг Джонни Депп ойнаған Transcendence ғылыми -фантастикалық фильмінен шабыттанған мақалада жасанды интеллект қаупін бағаламау адамзат тарихындағы ең үлкен қателік болуы мүмкін екенін айтты. Берклидегі Калифорния университетінің информатика профессоры Стюарт Расселмен және Массачусетс штатының физика профессорлары Макс Тегмарк пен Фрэнк Уилчекпен бірге жазылған мақалада
Жасанды интеллекттен қорқу керек пе?
Соңғы бір -екі ай ішінде біз жасанды интеллект тақырыбына бір -екі рет жүгіндік. Мұның себебі, әрине, қызығушылықтың артуы ғана емес, сонымен қатар Маск пен Хокинг көтерген алдау болды. Неге алдау? Өйткені жасанды интеллект «үлкен деректер» мен «бұлттардың» семантикалық өрісінен асып түсетініне көп уақыт қажет. Мәселе мынада, адамдар қазіргі уақытта жасанды интеллектінің мүмкіндіктерін асырып жіберіп, жалған ақпарат беруді жалғастыруда
Философтар адамзат, шетелдіктер және жасанды интеллект туралы ойлайды
Философия басқа ғылымдармен қатар қазіргі заманғы үрдістерді ұстануға және бүгінгі күннің ерекшеліктерін зерттеуге тырысады. Ғылымның бұл саласы жасанды интеллект, роботтар мен шетелдіктер сияқты өзекті тақырыптармен де айналысады. Олар қалай ұқсас болуы мүмкін? Коннектикут университетінің ғалымы Сюзан Шнайдер заманауи инженерия мен бөтен интеллект туралы өзінің көзқарасы туралы айтты. Адамдар Әлемдегі ең жоғары интеллектке ие деп ойламау керек. Біздің планета, Күн сияқты