国产一级精品毛片基地,aa片在线观看无码免费,古装a级爱做片视频,日日摸日日碰嗷嗷嗷嗷嗷好看到停不下来,精品一级毛片

歡迎來到進(jìn)口食品商務(wù)網(wǎng)!

人工智能工具可能會讓企業(yè)對反偏見的失誤承擔(dān)責(zé)任

2024-05-08 18:35 來源:本站編輯

隨著立法者和其他人努力解決生成式人工智能(AI)的隱私、安全和偏見問題,專家們本周警告企業(yè),當(dāng)出現(xiàn)問題時,他們的技術(shù)供應(yīng)商不會承擔(dān)后果——他們會。

周三,一個由三名人工智能和法律專家組成的小組舉行了一場新聞發(fā)布會。此前,政府和私營企業(yè)出臺了幾項(xiàng)旨在讓人工智能創(chuàng)造者和用戶承擔(dān)更多責(zé)任的舉措。

非營利組織EqualAI的首席執(zhí)行官米里亞姆·沃格爾(Miriam Vogel)與另外兩位專家一起解決了潛在的隱患。EqualAI成立于五年前,旨在減少人工智能系統(tǒng)中的無意識偏見和其他“危害”。

Vogel是白宮國家人工智能咨詢委員會主席和前助理副檢察長,他說,雖然人工智能是一種強(qiáng)大的工具,可以創(chuàng)造巨大的商業(yè)效率,但使用它的組織必須“高度警惕”人工智能系統(tǒng)不會延續(xù)和創(chuàng)造新的歧視形式。

“在創(chuàng)建EqualAI時,創(chuàng)始人意識到偏見和相關(guān)危害是新媒體中的老問題。顯然,在這里,它很難被發(fā)現(xiàn),后果可能會令人悲傷,甚至更嚴(yán)重,”沃格爾說。(EqualAI為企業(yè)提供負(fù)責(zé)任地使用人工智能的培訓(xùn)和建議。)

與沃格爾同行的還有ORCAA首席執(zhí)行官凱茜?奧尼爾和分析軟件供應(yīng)商SAS Institute負(fù)責(zé)數(shù)據(jù)倫理的副總裁、EqualAI董事會成員雷吉?湯森。ORCAA是一家審計算法(包括人工智能系統(tǒng))的咨詢公司,負(fù)責(zé)合規(guī)和安全審核。

該小組認(rèn)為,管理人工智能的安全性和偏見,與其說是技術(shù)專家,不如說是跨技術(shù)的管理框架。

許多形式的人工智能已經(jīng)存在了幾十年,但直到計算機(jī)處理器能夠支持更復(fù)雜的模型和像ChatGPT這樣的生成式人工智能平臺,人們才開始擔(dān)心偏見、安全和隱私問題。在過去的六個月里,有關(guān)招聘、員工評估和晉升方面的偏見問題浮出水面,促使市政當(dāng)局、州和美國政府制定法規(guī)來解決這一問題。

奧尼爾說,盡管公司通常從第三方供應(yīng)商那里獲得人工智能軟件的許可,但與人工智能技術(shù)供應(yīng)商相比,用戶的法律責(zé)任問題將更大。

奧尼爾十年前在廣告技術(shù)領(lǐng)域工作,當(dāng)時她說,根據(jù)財富、性別和種族來區(qū)分人更容易。“這是廣告的正常做法。從一開始就很清楚,這可能會出錯。找到這樣的例子并不難?,F(xiàn)在,10年過去了,我們知道事情已經(jīng)出錯了?!?/p>

尋找失敗點(diǎn)

例如,面部識別算法對白人男性的效果要好得多,對黑人女性的效果要差得多。傷害往往落在歷史上被邊緣化的人身上。

EqualAI為企業(yè)提供了一個認(rèn)證項(xiàng)目,這些企業(yè)一遍又一遍地提出一個問題:誰可能會失敗?O 'Neil說,這個問題迫使公司利益相關(guān)者考慮那些面臨人工智能應(yīng)用的公司。

例如,自動化的求職者跟蹤系統(tǒng)是否可能在性格測試中歧視有精神健康狀況的人,或者保險公司在確定保費(fèi)時使用的算法是否會基于種族、性別或其他因素非法歧視某人?

“EqualAI填補(bǔ)了這個空缺。沒有其他人這樣做,”奧尼爾說?!昂孟⑹?,這不是火箭科學(xué)。預(yù)測并設(shè)置護(hù)欄以確保人們免受傷害并非不可能。

“如果你走上一架飛機(jī),駕駛艙里一個人也沒有,你會有什么感覺?”飛機(jī)上的每一個刻度盤都在監(jiān)測一些東西,無論是空氣速度還是油箱里的燃油量。他們在監(jiān)控整個系統(tǒng)的運(yùn)作。

“我們沒有人工智能駕駛艙,但我們應(yīng)該有,因?yàn)槲覀兓旧辖?jīng)常是盲目飛行,”奧尼爾說?!八裕銘?yīng)該問問自己,如果你是一家公司……,可能會出現(xiàn)什么問題,誰會受到傷害,我們?nèi)绾魏饬窟@些問題,我們希望在這些衡量中看到的最小值和最大值是多少?

“這些都沒有那么復(fù)雜。我們討論的是安全問題,”她補(bǔ)充道。“平等就業(yè)機(jī)會委員會(EEOC)已經(jīng)非常明確地表示,他們將利用其權(quán)力范圍內(nèi)的所有民權(quán)法律來管理人工智能系統(tǒng),就像他們采取任何行動一樣。不管這是否是人工智能系統(tǒng)推薦給你的行動。不管怎樣你都有責(zé)任。

沃格爾說:“他們還采取了措施,指出了特別值得關(guān)注的具體法律,部分原因是許多人工智能系統(tǒng)違反了這些法律,比如《美國殘疾人法案》?!?/p>

例如,語音識別軟件通常是針對說英語的人進(jìn)行訓(xùn)練的,這意味著語音識別結(jié)果可能會受到有語言障礙或有濃重非英語口音的人的影響。面部識別軟件經(jīng)常會誤讀或無法識別少數(shù)民族的臉。

沃格爾說:“如果你是一名女性,根據(jù)(識別軟件)訓(xùn)練的信息,你的聲音也不會像男性那樣被聽到。”

早期的監(jiān)管努力需要加強(qiáng)

湯森表示,白宮與7家領(lǐng)先的人工智能開發(fā)公司于7月21日達(dá)成了一項(xiàng)不具約束力的協(xié)議,旨在努力確保其技術(shù)的安全,但這還遠(yuǎn)遠(yuǎn)不夠。

“我希望看到這些組織……確保有足夠的代表參與決策。我不認(rèn)為有一個女人是那個展覽的一部分,”湯森說?!拔蚁氪_保餐桌上的人都有過親身經(jīng)歷,他們的外表和感覺都與那些參與談話的人不同。我相信所有這些組織都有這樣的人?!?/p>

周三,在小組討論的同一天,ChatGPT的創(chuàng)造者OpenAI還宣布了前沿模型論壇,這是一個促進(jìn)人工智能系統(tǒng)安全和負(fù)責(zé)任發(fā)展的行業(yè)機(jī)構(gòu)。在推進(jìn)人工智能安全研究的同時,論壇的使命是“確定最佳實(shí)踐和標(biāo)準(zhǔn),促進(jìn)政策制定者和行業(yè)之間的信息共享”。

小組成員表示,該論壇是一個重要的發(fā)展,因?yàn)樗菍⒄麄€人工智能生態(tài)系統(tǒng)納入圍繞安全、隱私和安全的對話過程中的又一步。但他們也警告說,“資金雄厚的大公司”不應(yīng)該是唯一的參與者——審查需要超越生成人工智能。

“人工智能的對話需要遠(yuǎn)遠(yuǎn)超越這一模式。金融領(lǐng)域有人工智能模型,零售業(yè)也有人工智能模型,我們在手機(jī)上使用人工智能模型進(jìn)行導(dǎo)航,”湯森說?!艾F(xiàn)在關(guān)于人工智能的討論都圍繞著大型語言模型。我們必須在圍繞人工智能及其動機(jī)的對話中保持勤奮。”

Townsend還將人工智能系統(tǒng)的構(gòu)建和管理比作電氣系統(tǒng):工程師和科學(xué)家負(fù)責(zé)安全發(fā)電;電工負(fù)責(zé)電氣系統(tǒng)的布線;消費(fèi)者有責(zé)任正確使用電力。

湯森德說:“這需要我們生態(tài)系統(tǒng)或供應(yīng)鏈中的所有人思考我們的責(zé)任,以及產(chǎn)出和投入?!?/p>

大型語言模型(LLM)是一種算法或代碼集合,它接受輸入并返回輸出。輸出可以通過強(qiáng)化學(xué)習(xí)和響應(yīng)或提示工程來操縱-教模型對請求的適當(dāng)響應(yīng)應(yīng)該是什么。

部署人工智能的公司,無論是在面向消費(fèi)者的應(yīng)用程序還是后端系統(tǒng)中,都不能把它當(dāng)作大型科技公司和人工智能供應(yīng)商的問題。Vogel說,無論一個組織是否銷售產(chǎn)品或服務(wù),一旦部署了人工智能,它必須將自己視為一家人工智能公司。

Vogel說,雖然公司應(yīng)該接受人工智能技術(shù)帶來的所有效率,但考慮到公司可能擁有的基本責(zé)任也很重要。想想與人工智能供應(yīng)商就責(zé)任問題進(jìn)行的合同談判,并考慮如何部署人工智能工具以及可能適用的任何隱私法律。

沃格爾說:“你必須關(guān)注所有你在其他創(chuàng)新中會考慮到的常規(guī)責(zé)任?!薄耙?yàn)槟阍谑褂萌斯ぶ悄?,它不會把你放在一個正常領(lǐng)域之外的空間。這就是為什么我們非常注意讓律師參與進(jìn)來,因?yàn)殡m然歷史上律師沒有參與人工智能,但他們需要參與。

“我們當(dāng)然參與過航空,但在法學(xué)院沒有接受過多少航空方面的法律培訓(xùn)。這里的情況與其他任何創(chuàng)新都類似。我們了解風(fēng)險,并幫助建立框架和保障措施?!?/p>

該小組表示,使用人工智能的公司應(yīng)該熟悉NIST的風(fēng)險管理框架。組織還應(yīng)該在內(nèi)部為部署和使用該技術(shù)的員工確定一個聯(lián)絡(luò)點(diǎn)——這個人負(fù)有最終責(zé)任,可以提供資源來解決問題并快速做出決定。

還需要制定一個流程,明確人工智能生命周期的哪些階段需要進(jìn)行哪種測試——從獲得法學(xué)碩士學(xué)位到使用內(nèi)部數(shù)據(jù)進(jìn)行培訓(xùn)。人工智能系統(tǒng)的測試也應(yīng)該記錄下來,這樣未來對技術(shù)的評估就可以考慮到已經(jīng)檢查過的內(nèi)容和還需要做的事情。

“最后,你必須做例行審計。人工智能將繼續(xù)迭代。這不是一勞永逸的情況,”沃格爾說。


資訊來源:http://taocha1688.com/info/show/98047/

中國進(jìn)口商網(wǎng)聲明:未經(jīng)許可,不得轉(zhuǎn)載。