Si Eliezer Shlomo Yudkovsky ay isang espesyalista sa Amerika sa artipisyal na katalinuhan, na nag-aaral ng mga problema ng teknolohikal na pagkakapareho at nagtataguyod ng paglikha ng Friendly AI. Siya ang may-akda ng maraming mga kwento ng fiction sa science kung saan inilalarawan niya ang ilang mga paksa na may kaugnayan sa kognitibo na agham at pagkamakatuwiran.
Eliezer Yudkowski: talambuhay
Si Eliezer Shlomo Yudkovsky ay isa sa mga pinaka-aktibong rationalist ng modernong Amerika, isang computer researcher at popularizer ng ideya ng "friendly artipisyal na katalinuhan."
Ipinanganak Setyembre 11, 1979. Co-founder at mananaliksik sa non-governmental na samahan ng pananaliksik na Institute for Research on Machine Intelligence, na naglathala ng kanyang mga libro. Si Eliezer Yudkovsky ay may-akda ng pilosopikong nobelang Harry Potter at ang Mga Paraan ng Rasyunalismo, na inilathala sa mga bahagi sa Internet sa pagitan ng 2010 at 2015. Sa loob nito, lumaki si Harry sa pamilya ng isang siyentipiko ng Oxford at, bago maglakbay sa Hogwarts, natututo mula sa kanya ang mga pamamaraan ng nakapangangatwiran na pag-iisip.
Tulad ng nalalaman, wala itong koneksyon sa bilog ng mga "haka-haka na realistiko". Ang kanyang pangalan ay madalas na binanggit na may kaugnayan kay Robin Hanson, sa loob ng maraming taon (mula 2006 hanggang 2009) sila ang dalawang pangunahing may-akda ng blog na "Overcoming the Prejudice", na umiral sa pera ng Institute for Future Humanity sa Oxford.
Minsan ang pangalan ng Yudkovsky ay maaaring marinig na may kaugnayan kay Raymond Kurzweil. Siya ay isang kinatawang pilosopiko ng pamayanan ng mga techno-geeks, hindi naa-access at hindi maintindihan, sa gayon, sa karamihan ng mga makataong pampubliko, na kung saan halos lahat ng mga mambabasa ng mga haka-haka na realist ay nabibilang. Hindi nakakagulat, dahil madalas siyang lumiliko sa wikang lohikal at matematika, mga konklusyon ng probabilistik at istatistika, na nakalantad gamit ang mga formula at mga talahanayan.
Mga interes sa siyentipiko
Si Yudkovsky ay isang co-founder at researcher sa Singularity Institute para sa Artipisyal na Intelligence Institute (SIAI). Gumawa siya ng isang malaking kontribusyon sa pag-unlad ng instituto. Siya ang may-akda ng aklat na "Paglikha ng Friendly AI" (2001), mga artikulo na "Mga Antas ng Organisasyon sa Pangkalahatang Katalinuhan" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition", " 2004) at Teoryang Desisyon ng Teoryang Walang Hanggan (2010). Ang kanyang pinakabagong mga publikasyong pang-agham ay dalawang artikulo sa koleksyon na "Mga panganib ng isang pandaigdigang sakuna" (2008) na na-edit ni Nick Bostrom, samakatuwid nga, "Artipisyal na Intelligence bilang isang Positibo at Negatibong Global na Panganib sa Panganib" at "Cognitive Distorsyon sa Pagtatasa ng mga Pangkalatang panganib". Si Yudkovsky ay hindi nag-aral sa mga unibersidad at isang auto-didact na walang pormal na edukasyon sa larangan ng AI.
Sinisiyasat ni Yudkovsky ang mga disenyo ng AI na may kakayahang maunawaan ang sarili, pagbabago sa sarili, at muling pag-unlad ng sarili (Binhi AI), pati na rin ang mga arkitektura ng AI na magkakaroon ng matatag at positibong istruktura ng pagganyak (Friendly Artipisyal na Intelligence). Bilang karagdagan sa kanyang gawaing pananaliksik, si Yudkovsky ay kilala sa kanyang mga paliwanag ng mga kumplikadong modelo sa isang di-pang-akademikong wika, ma-access sa isang malawak na bilog ng mga mambabasa, halimbawa, tingnan ang kanyang artikulong "Isang Intuitive Paliwanag ng Bayes 'Theorem".
Si Yudkovsky, kasama si Robin Hanson, ay isa sa mga pangunahing may-akda ng Overcoming Bias blog (overcoming biases). Noong unang bahagi ng 2009, lumahok siya sa samahan ng blog na Masamang Mali, na naglalayong "pagbuo ng pagiging makatwiran ng tao at pagtagumpayan ang mga pagkagulo ng cognitive." Pagkatapos nito, ang Overcoming Bias ay naging personal na blog ni Hanson. Ang materyal na ipinakita sa mga blog na ito ay inayos bilang mga tanikala ng mga post na nakakaakit ng libu-libong mga mambabasa - tingnan, halimbawa, ang chain chain ng entertainment.
Si Yudkovsky ay may-akda ng maraming mga kwento ng fiction sa science kung saan inilalarawan niya ang ilang mga paksa na nauugnay sa kognitibo na agham at pagkamakatuwiran.
Karera
- 2000. Natagpuan ni Yudkovsky ang Singularity Institute (kalaunan pinalitan ng pangalan ng MIRI).
- 2006. Sumali si Yudkovsky sa Overcoming Bias na kolektibong blog at nagsisimulang magsulat ng mga teksto na kalaunan ay naging Chain.
- 2009. Batay sa mga entry ni Yudkovsky sa Overcoming Bias, nilikha ang sikat na kolektibong blog na LessWrong.com.
- 2010-2015. Sinusulat ni Yudkovsky ang GPiMRM.
- 2013. Inilathala ni Yudkovsky ang pinakabagong mga post sa LessWrong.com at huminto sa pagsusulat sa site. Hanggang sa 2017, inilathala ni Yudkovsky ang karamihan sa mga magagamit na teksto sa Facebook at Arbital
Eksperimento ng pag-iisip
Isipin ang isang hindi kapani-paniwalang matalinong artipisyal na superintelligence na naka-lock sa isang virtual na mundo - sabihin, sa isang snuffbox lamang. Hindi mo alam kung magiging mean siya, friendly o neutral. Ang alam mo lang ay nais niyang lumabas sa kahon at maaari kang makipag-ugnay sa kanya sa pamamagitan ng isang interface ng teksto. Kung ang AI ay talagang superintelligent, maaari mo bang kausapin siya ng limang oras at hindi sumuko sa kanyang panghihikayat at pagmamanipula - hindi upang buksan ang snuffbox?
Ang inisip na eksperimento na ito ay iminungkahi ni Eliezer Yudkowsky, isang mananaliksik sa Engineering Research Institute of Engineering (MIRI). Ang MIRI ay maraming mga siyentipiko na naggalugad ng mga panganib ng pagbuo ng artipisyal na superintelligence; kahit na hindi pa ito lumitaw, umaakit na ito ng atensyon at nagtatalo ng isang debate.
Nagtalo si Yudkovsky na ang artipisyal na superintelligence ay maaaring sabihin ang lahat ng makakaya upang kumbinsihin ka: maingat na pangangatuwiran, pagbabanta, pandaraya, pagbuo ng rapport, hindi malay na mungkahi at iba pa. Sa bilis ng ilaw, ang AI ay nagtatayo ng isang balangkas, nagsisiyasat ng mga kahinaan at tinutukoy kung paano ito mas madaling kumbinsihin sa iyo. Tulad ng inilagay ng umiiral na banta na teorist na si Nick Bostrom, "dapat nating paniwalaan na makamit ng superintelligence ang lahat ng itinatakda nito bilang layunin nito."
Ang eksperimento ng snuffbox AI ay nagdududa sa aming kakayahan na makontrol kung ano ang maaari naming likhain. Ginagawa rin nating maunawaan natin ang mga kakaibang posibilidad ng hindi natin alam tungkol sa ating sariling katotohanan.