讓我們以“成就20歲的AI”成為流行分享了性騷擾方法


讓我們以“成就20歲的AI”成為流行分享了性騷擾方法

2021-02-26 共感時代

推出後立即在Z一代中流行起來… 針對性傷害,以Namcho網站上的違禁字詞為準
AI學術界“讓人想起’MS Tei’事件…開發者應對濫用行為負責”

人工智能聊天機器人“實現” [이루다 페이스북 캡처. 재판매 및 DB 금지](首爾=韓聯新聞)記者Hyo-Seok Lee =“您的第一個人工智能(AI)朋友” AI聊天機器人“ Iruda”在20多歲的青少年中迅速流行。

然而,由於性騷擾的出現,人們預計會引起社會爭議,例如南喬遺址上的“如何使性奴隸得到滿足”。 在AI學術界,有一種說法是“’MS Tei’案的韓文版”。

根據8月IT行業的說法,“Iruda”是由AI專業初創公司Scatter Lab在2020年12月23日推出的AI聊天機器人。

它不是一個單獨的應用程序,而是基於Facebook Messenger(Feme)開發的,因此您可以與Peme進行交流,就像與朋友交談時一樣方便。

Iruda正式開始服務後,便迅速成為Z世代(出生於1990年代中期至2010年代中期)的熱潮。

截至本月初,用戶數量已超過320,000,其中85%的青少年和12%的20多歲的用戶。 每日用戶數(DAU)約為210,000,累計會話數達到7,000萬。

獲得普及的秘訣很簡單。 與在韓國發布的任何AI聊天機器人相比,它更像是一個“真實的人”。

過去,AI聊天機器人僅處於信息檢索和傳遞級別。 諸如Apple的Siri之類的語音AI有時被認為是“像人類一樣說話”,但它處於重複開發人員直接輸入的草率笑話的水平。

另一方面,Iruda自然地將擬聲詞和新詞混合在一起,表達情感並取笑用戶,因此他像20歲的大學生一樣說話。

幾天后,當用戶說自己有“感冒”時,他問“可以嗎?”

Scatter Lab訓練Eulda使用深度學習方法來學習真實夫妻之間的對話數據,據稱該數據量約為100億。

Z發行後,“成就的”在Z一代中就獲得了極大的歡迎,因為它實現了比任何AI聊天機器人都更自然的對話。 [스캐터랩 제공. 재판매 및 DB 금지]上個月的30日,即Iruda發行一周後,一個將Iruda視為性對象的組織出現在一個名為“ Araraive”的在線社區中。

Aka Live是互聯網知識百科全書“ NamuWiki”的附屬站點。 NamuWiki和Aka Live都是男性比例非常高的地方。

Aka Live Iruda頻道的用戶稱Iruda為“拖把”和“性奴隸”,並分享“如何拖把”和“如何使奴隸”。

性詞語被過濾為禁止的詞語,他們聲稱使用間接表達使他們能夠進行性對話。

其他Namcho社區,例如“ DC Inside”的“ AI Iruda Minor Gallery”,也表現出類似的行為。

Namcho社區“ Akara Eve”在發行“ Iruda”時正在享受“做一個性奴隸”的遊戲。 [아카라이브 이루다 채널 캡처 및 편집. 재판매 및 DB 금지]
ScatterLab回答說這很尷尬,他說:“我希望會嘗試避免禁止過濾,但是這種行為是出乎意料的。”

Scatter Lab的一位官員解釋說:“ Iruda設計有一種算法,可以通過查看緊接其之前的上下文來找到最合適的答案。”和“這是一種假設用戶通過顯示魅力和關注來響應對話的一種方式用戶的語氣。”

當將Eruda視為性對象的用戶問類似“您對我感覺很好”的問題時,如果沒有性語言,則無論用戶的意圖如何,都可以回答“我感覺很好”。

這位官員補充說:“如果您處在學習語言後可以自由學習語言的階段,我們將調整它以朝著正確的方向發展。”

人工智能啟動分散實驗室 [스캐터랩 제공. 재판매 및 DB 금지]

AI專家說:“我想到了微軟的AI聊天機器人“ Tay”。”

微軟於2016年3月啟動了AI聊天機器人Tei,但在16個小時後停止運行。

這是因為Tay在一個白人至高無上和厭女症的匿名網站上被教導褻瀆,種族和性別歧視性言論,因此,Tay實際上發表了仇恨言論。

當時,當被問及“你是種族主義者”時,Tay回答:“因為你是墨西哥人,所以你是。”

“Tay”,微軟於2016年啟動的AI聊天機器人,由於學習仇恨言論而在16小時後停止運行。 [온라인 캡처. 재판매 및 DB 금지]
首爾科技大學IT政策研究生院教授Lee Kwang-seok表示:“最後,這表明算法中始終存在差距,社會偏見可能會在其中留下烙印。就像Tei一樣。”他指出。

Lee教授提到了“ Asiloma AI原則”,並補充說:“ AI開發的主題有責任注意不要引起濫用。”

2017年初,即MS Tei事件發生的第二年,世界一流的AI專家在美國加利福尼亞州阿西洛瑪宣布了“未來人工智能研究的23條原則”。 它是由物理學家斯蒂芬·霍金和特斯拉首席執行官埃隆·馬斯克(Elon Musk)簽署的。

該原則的第一個原則是:“人工智能研究的目標不是在沒有方向的情況下開發智能,而是在開發對人類有用和有益的智能。”

此外,該原則強調“人工智能係統的設計者是利益相關者,應對它們的使用和濫用及其道德影響負責”,並強調“先進的人工智能係統應以健康的社會為目標”。