技術編輯:徐九丨發自 北京
SegmentFault 思否報道丨公衆號:SegmentFault算法
美國聯邦貿易委員會(FTC)下屬的消費者保護局局長安德魯-史密斯(Andrew Smith)本週發佈了一篇文章,名爲《使用人工智能和算法》。該文章旨在對正在開發和使用消費級人工智能的企業提供一些幫助。安全
文章中的經驗主要來自於 FTC 過去的執法行動、行業報告以及研討會,其中一個最重要的信息就是建議企業在開發和使用人工智能時,不要讓消費者或者他們自身感到驚訝。網絡
謹慎對待人工智能,除了有助於避免 FTC 的審查以外,還能帶來一些好處。好比還能夠幫助避免與消費者和商業夥伴的關係受損。這次 FTC 在文中提出的建議主要分爲四大類:框架
儘管其中許多信息涉及到 FTC 執行的特定行業法律,如《公平信用報告法》(FCRA)和《平等信用機會法》(ECOA)等,但其實不少建議具備更普遍的適用性。工具
諸如 FCRA、ECOA 和 1964 年《民權法》第七章等行之已久的法律,他們分別適用於消費者報告、消費信貸、投票、教育和提供公共場所等領域的人工智能使用。要履行這些法律的義務,有賴於認可這些法律是否以及什麼時候適用。測試
然而,FTC 的文章中討論的法律遠非詳盡無遺。在文章中提到的法律以外,還有一條重要的法律須要補充 —— 健康保險便利和責任法案(HIPAA)。ui
該法案制定了一系列安全標準,就保健計劃、供應商以及結算中心如何以電子文件的形式來傳送、訪問和存儲受保護的健康信息作出詳細的規定。法案規定在確保私密性的狀況下保存病人信息檔案六年,還詳細規定了醫療機構處理病人信息規範,以及違法保密原則、經過電子郵件或未受權的網絡註銷病人檔案的處罰方案。人工智能
雖然一般狀況下,當一個企業做爲醫療服務提供者、保險人或信息交換中心時,一般是很清楚的,但要肯定公司什麼時候成爲受保實體的「商業夥伴」可能更具挑戰性。spa
這次新冠疫情的影響加速了和醫療健康相關的 AI 產業發展,而這些企業在尋求技術突破的同事,更須要了解企業應該擔負的責任。3d
根據文章所述,FTC 已經制定了評估 AI 系統是否存在非法歧視的法律和經濟標準。
具體來講,該機構將查看輸入的信息,以肯定它們是否包括「基於種族的因素,或此類因素的替代信息」。
文章中表達了一個強烈的觀點,就是 FTC 對經過使用 AI 可能產生的歧視的關注度至關高。"使用人工智能和算法工具的公司應該考慮是否應該對人工智能結果進行自我測試,以管理這類模型所固有的消費者保護風險"。
然而,FTC 並無爲這些評估提供一個框架,也沒有更籠統地指出哪些類型的 AI 歧視風險能夠被採起行動。儘管如此,企業仍需善意地努力識別和下降此類風險。
FTC 的 AI 指南中貫穿着另外一個主題:公司應仔細評估 AI 相關數據和分析的上游供應商如何遵照其法律義務,並對其進行適當的約束,以防止本身的客戶以不適當或非法的方式使用 AI 服務。
雖然 FTC 重點關注 FCRA 和 ECOA 下的上游和下游要求,但遠離更多的高監管活動纔是其意圖。
在簽定人工智能相關業務關係以前進行盡職調查,要求在合同條款中寫明人工智能系統和數據輸入的容許用途,以及監督業務合做夥伴的表現,都是實現這些目的的關鍵。
FTC 在監督人工智能在經濟領域的使用方面的做用還處於起步階段,並將繼續發展。但無論怎麼說,該機構這次發佈的文章,對於隨着科技發展而新興的法律和企業對自我監管的思考,都提供了一個有用的資源。
參考資料:
AD LAW ACCESS
維基百科: 健康保險便利和責任法案