OpenAI, mga Tagagawa ng ChatGPT, Nangangako na Magbuo ng Ligtas na mga Sistemang AI

larawan1.png

Ang OpenAI ay naglathala ng isang bagong blog post na nangangako na palaguin ang artificial intelligence (AI) na ligtas at malawakang kapaki-pakinabang.

Ang ChatGPT, na pinapatakbo ng pinakabagong modelo ng OpenAI, ang GPT-4, ay maaaring mapabuti ang produktibidad, mapalalim ang pagkamalikhain, at magbigay ng mga partikular na karanasan sa pag-aaral.

Gayunpaman, kinikilala ng OpenAI na ang mga AI tool ay mayroong likas na mga panganib na kailangang tugunan sa pamamagitan ng mga hakbang sa kaligtasan at responsableng paggamit.

Narito ang ginagawa ng kumpanya upang maibsan ang mga panganib na ito.

Tiyakin ang Kaligtasan sa mga Sistemang AI

Ang OpenAI ay nagpapasagot ng maayos na pagsubok, humahanap ng eksternal na gabay mula sa mga eksperto, at pinapaganda ang mga modelo nito ng AI gamit ang tulong ng mga tao bago ilabas ang bagong mga sistema.

Ang pagpapalabas ng GPT-4, halimbawa, ay sinundan ng mahigit na anim na buwang pagsusuri upang tiyakin ang kahalayan at pagiging kanais-nais nito para sa mga gumagamit.

Ang OpenAI ay naniniwala na ang matatag na mga sistema ng AI ay dapat sumailalim sa mahigpit na mga pagtatasa sa kaligtasan at sumusuporta sa pangangailangan ng regulasyon.

Nauunawaan mula sa Tunay na Mundo

Ang paggamit sa tunay na mundo ay isang mahalagang bahagi sa pag-develop ng ligtas na mga AI system. Sa pamamagitan ng maingat na pagpapalabas ng mga bagong modelo sa isang pabagal na lumalawak na user base, ang OpenAI ay maaaring magpatuloy na magpabuti na nag-aaddress ng mga di-inaasahang isyu.

Sa pamamagitan ng pag-aalok ng mga modelo ng AI sa pamamagitan ng API at website nito, ang OpenAI ay maaaring magmonitor ng pansamantalang paggamit, kumuha ng angkop na aksyon, at mag-develop ng mga detalyadong patakaran upang balansehin ang panganib.

Proteksyon sa mga Bata & Paggalang sa Privacy

Ang OpenAI ay nagbibigay-prioridad sa pagprotekta sa mga bata sa pamamagitan ng paghahanap ng katunayan ng edad at ipinagbabawal ang paggamit ng teknolohiya nito upang lumikha ng masasamang nilalaman.

Privacy isang mahalagang bahagi ng trabaho ng OpenAI. Ginagamit ng organisasyon ang data upang gawing mas kapaki-pakinabang ang mga modelo nito habang nagpapangalaga sa mga gumagamit.

Bukod dito, tinatanggal ng OpenAI ang personal na impormasyon mula sa mga training dataset at hinuhubog ang mga modelo upang tanggihan ang mga kahilingan para sa personal na impormasyon.

Iiyakapan Magbamalasaing nggakunguma ngkaliwiadlonaangkng personal na impormasyon sa mgkensystema nggOpenAI.

Pagpapabuti ng Totoong Impormasyon

Ang pagsasagawa ng totoo ay isang mahalagang pokus para sa OpenAI. Ang GPT-4 ay may 40% na mas malamang na makabuo ng tumpak na nilalaman kaysa sa kanyang nakaraang bersyon, ang GPT-3.5.

Ang organisasyon ay nagtatrabaho upang magbigay ng kaalaman sa mga gumagamit tungkol sa mga limitasyon ng mga AI tools at ang posibilidad ng hindi tumpak na impormasyon.

Pagpapatuloy ng Pananaliksik at Pakikipag-ugnayan

Ang OpenAI naniniwala sa pagtatalaga ng oras at mga mapagkukunan upang pag-aralan ang mga epektibong pagsasapit at pamamaraan sa pagtutugma.

Gayunpaman, hindi ito magagawa ng mag-isa. Ang pag-address sa mga isyung pangkaligtasan ay nangangailangan ng malawakang talakayan, pagsusubok, at pakikilahok ng mga stakeholders.

Ang OpenAI ay patuloy na nangangako na palakasin ang pakikipagtulungan at bukas na pag-uusap upang makabuo ng ligtas na ekosistema ng AI.

Pagpuna sa mga Panganib ng Pag-iiral

Kahit na mayroong pangako ang OpenAI na tiyakin ang kaligtasan at malawakang mga benepisyo ng kanyang mga AI system, ang blog post nito ay nagdulot ng mga kritisismo sa social media.

Ang mga gumagamit ng Twitter ay nagpahayag ng pagka-disappoint, sinasabing hindi natutugunan ng OpenAI ang mga panganib na nauugnay sa pagsasagawa ng AI.

Isang user ng Twitter ang nagpahayag ng kanilang pagkadismaya, umaakusahan ang OpenAI ng pagtaksil sa kanilang misyon at pagsasaalang-alang sa walang pag-iingat na komersyalisasyon.

Ang user ay nagmumungkahi na ang pagkakatugma ng OpenAI sa kaligtasan ay malalim lamang at mas nakatutuon sa pagbibigay ng kasiyahan sa mga kritiko kaysa sa pagsasaayos ng tunay na panganib sa pagkalipol.

Ito ay lubhang nakakadismaya, walang laman, pagpapakunwari sa PR.

Hindi mo man lang binabanggit ang mga panganib na nauugnay sa AI na siyang pangunahing alalahanin ng maraming mamamayan, mga teknologo, mga mananaliksik ng AI at mga lider ng industriya ng AI, kasama na ang inyong sariling CEO na si @sama. Ang @OpenAI ay nagtataksil…

— Geoffrey Miller (@primalpoly) Abril 5, 2023

May isa pang user na nagpahayag ng kawalan ng kasiyahan sa pahayag, na nag-aalinlangan ito sa tunay na mga problema at linaw. Idinidiin din ng user na hindi pinapansin ng ulat ang mga mahahalagang isyung etikal at panganib na kaugnay ng kamalayang sarili ng AI, na nagpapahiwatig na ang paraan ng OpenAI sa mga isyu ng seguridad ay hindi sapat.

Bilang isang tagahanga ng GPT-4, nalulungkot ako sa iyong artikulo.

Binabanggit nito ang mga tunay na problema, nagiging malabo, at hindi pinapansin ang mahahalagang isyu sa etika at panganib na kaugnay ng self-awareness ng AI.

Pinahahalagahan ko ang imbensyon, ngunit hindi ito ang tamang paraan upang malunasan ang mga isyu sa seguridad.

— FrankyLabs (@FrankyLabs) Abril 5, 2023

Ang kritisismo ay nagpapahiwatig ng mas malawak na mga alalahanin at patuloy na talakayan tungkol sa mga panganib na isinusulong ng pag-unlad ng AI.

Habang ipinapakita ng pahayag ng OpenAI ang kanilang pangako sa kaligtasan, privacy, at katumpakan, mahalagang kilalanin ang pangangailangan para sa karagdagang talakayan upang tugunan ang mas malalaking mga alalahanin.

Kaugnay na mga Artikulo

Tingnan Nang Mas Marami >>

I-unlock ang kapangyarihan ng AI gamit ang HIX.AI!