找保姆,用AI,避免虐童事件在發生

保姆虐童案,時有發生。

此前,媒體報道稱,江蘇鎮江丹陽的毛女士通過手機錄像發現,自己請的金牌月嫂儘管有崗位培訓合格證書,但在照顧小孩的過程中,仍然存在非專業行為及虐童現象。

儘管相關保姆已經受到應有的懲罰,但保姆虐童事件仍不斷發生,如深圳某家長通過監控發現自家孩子因哭鬧被保姆捂口鼻致渾身抽搐;鄭州某保姆在電梯內毆打孩子的視頻引髮網友廣泛關注等等。

為什麼,最開始看的好好的保姆,最後能演變成虐童?對於保姆虐童時的心態,我們無從研究。不過,如何從一開始就篩選出會有虐童傾向的保姆,正在成為AI想要解決的問題。

近日,媒體報道稱,美國一家創企研發的名為Predictim的AI評估系統被用於保姆招聘上,該系統能夠在線預測保姆的性格,並給出不良性格因素的出現概率。

背後原理

在美國,寶媽Jessie使用了該系統,希望通過其輔助,判斷一位保姆候選人是否合適。

對此,Predictim給出的在線評估結果顯示,這位 24歲的年輕女性吸毒風險低,但態度惡劣、不尊重別人特性出現的風險為40%,風險略高。

AI 並不看好這位應聘者,Jessie 也突然對這位求職者心生疑慮。

或許,大家都有這樣一個疑慮,AI與這位面試者,從未謀面,它又是基於什麼去判斷一個人的性格呢?

這就要說道它背後的原理了。

事實上,這裡還是有強制性的前提。在評估前,AI演算法要先知道保姆的姓名和電子郵件,並徵求保姆同意獲取社交媒體賬戶的訪問許可權。

若保姆拒絕,招保姆的父母會收到拒絕通知,保姆也會收到一封郵件,上面寫著「在您完成此請求之前,將無法被有意向的父母僱傭。」

也正因此,若是想要獲得這份工作,保姆必須完成測試。

技術層面,Predictim主要利用的是自然語言處理技術和計算機視覺圖像識別技術,掃描各個求職者的 Facebook、Twitter 和Instagram 等社交平台上的發帖。

事實上,Predictim通過演算法評估保姆,在很大程度上具有不可解釋性,也沒有人知道,AI是如何將負責的社交平台內容轉化為優點或潛在危險。

不過,通過我們無法得知的操作,Predictim系統會生成一份評估報告,但,該報告只會對父母顯示,不會告訴保姆本人結果如何。

報告中的風險評級分為幾類,比如是否具有暴力傾向和是否有吸毒風險。除此以外,AI 還會對保姆的其他人格特質進行評價,例如是否有禮貌、是否對與他人合作保持積極性等。

價格方面,現在Predictim 系統一次使用的起步價為 24.99 美元,約人民幣174 元。

AI評估人類,引發人權問題

事實上,AI評估人類,這並不是首例。

如IBM,其AI程序沃森將考核員工過去表現如何,還會主動搜索內部培訓系統的數據,了解員工培訓以及學習情況,判斷他們是否具備升職潛力。

當然,也不止國外,據中國江西網報道,江西省農業發展銀行校園招聘的筆試和面試,也加入了AI評定環節。機器人能通過測試判斷應聘者是否具備高等級情緒風險,從而輔助招聘人員決定去留。

然而,這引發了大眾對於人權的探討。

Pew ResearchCenter 本月的一份調查顯示,有57%的受訪者不能接受求職過程中的自動簡歷篩選,並對可能影響他們日常生活的演算法持懷疑態度。

同時,媒體報道稱,部分美國專家也擔心,像Predictim這樣的AI評級系統預示著未來每個工作都可能由一台機器決定,AI看你行不行 = 未來就業成不成。

此外,一些AI研究者還認為,這樣的系統有可能增加年齡、種族和相貌上的偏見,可能會更頻繁地標記一些群體的特徵。

此前,路透社報道稱,亞馬遜停止開發招聘演算法,最大原因當屬系統偏見。因為目前公司開發人員還是男性為主,因此在相同質量簡歷中,此前仍會首選男性求職者。

不過,亞馬遜後來也表示,這個評估工具從未用於決定候選人的去留。

然而,雖然不看好的聲音不絕,但在線保姆招聘平台Sittercity的高管表示,Predictim系統仍在全力準備擴張。他們將在明年初推出一項試點計劃,將Predictim 的自動評級加入到自己網站一系列保姆背景調查中。

同時,Sittercity的產品負責人Sandra Dainora 表示,像這樣的工具很快就會成為在線尋找護理人員的「標準貨幣」,也就是通用衡量標準之一。

更多精彩內容,關注望潮科技微信號(ID:tech_beat)


推薦閱讀:

TAG:虐童 | 保姆 | 人工智慧 |