樱桃APP下载_樱桃视频污下载_樱桃视频污污_樱桃视频污在线观看

如果助教成為真假難辨的AI,機器人老師還會遠么

  在有著“南方MIT”之稱的佐治亞理工學(xué)院中,一位教授給自己創(chuàng)造了一個人工智能(AI)助教,從此改變了整個課堂。這位“助教”目前已經(jīng)可以負責(zé)幫教授處理日常且有標準答案的問題,且學(xué)生無法判斷出它的身份是AI還是人。不過,越來越多像這樣的人工智能正在悄悄地改變著我們的生活方式,由此也需要思考,如果你知道你在與人工智能打交道的話,是否會從基本層面上改變溝通方式?或者說人工智能是否真的能夠替代人類?
  阿肖克·戈埃爾教授需要幫助。
  阿肖克·戈埃爾是佐治亞理工學(xué)院的一名電腦科學(xué)教授。他的班上最多的時候有十幾二十個學(xué)生,但他的在線課堂上卻著來自世界各地的四百多個學(xué)生。他們帶著一些問題與疑惑,不時地瀏覽他的視頻并學(xué)習(xí)。
  根據(jù)戈埃爾的說,每個學(xué)期學(xué)生的問題多達10000個。這遠遠超出了他與他的教研團隊所能處理的范圍。
  “每天回答這些問題已經(jīng)逼得我們要發(fā)瘋了。”他說。
  同時也有另一個問題。阿肖克·戈埃爾教授擔(dān)心線上的學(xué)生會在整個學(xué)期的學(xué)習(xí)過程中慢慢喪失了對課程的熱情與興趣。他的擔(dān)憂是有充分的證據(jù)的:根據(jù)教育研究者凱蒂·喬丹的數(shù)據(jù)來看,只有小于15%的學(xué)生能夠完成他們所注冊的MOOC(大規(guī)模線上課堂)。
  不過碰巧的是,戈埃爾是一位人工智能的專家。事實上,他所教授的課程,計算機科學(xué),也叫做人工智能理論。他想,或許他所需要的是一位能夠處理日常問題智能助教,同時,他與他的人類助教們可以負責(zé)那些更具有思維與創(chuàng)造力的問題。在教育中,給予個人的關(guān)注度是極為重要的。如果他們能夠量化地提供個人關(guān)注度呢?
  這便是吉爾·華生出場的時候了。
  吉爾·華生是戈埃爾創(chuàng)造的AI,是佐治亞理工學(xué)院的線上資訊平臺。那是一個由微軟的Outlook設(shè)立的,工具化的訊息版;問題與主題在左側(cè)的板塊,每一個都領(lǐng)向一條位于右側(cè)的對話板塊。吉爾同時幫助戈埃爾現(xiàn)實課堂里的五十位學(xué)生,以及數(shù)目更多的線上學(xué)生。
  它所回答的問題非常常規(guī)但又是必須的,例如正確的文件格式,數(shù)據(jù)使用,以及教職員的日程時間安排,這些問題都有絕對客觀的答案。而人類助教們負責(zé)那些更為復(fù)雜的問題。
  至少現(xiàn)在戈埃爾希望將吉爾作為一個起點,如果它能夠勝任更多工作的話,出于對“知識產(chǎn)權(quán)”的考慮,他會將它的相關(guān)信息保密。
  四月時,吉爾的存在被曝光,當(dāng)時它正處于期末的工作。但多數(shù)學(xué)生對它的參與依舊不知情。在秋季學(xué)期,它就像許多其他助教一樣,使用一個假名進行工作。這樣的話他們就不能被那些想要知道機器人是誰的好奇學(xué)生谷歌搜索了。
  “我依舊不知道機器人是誰,”多里·朗,一位戈埃爾現(xiàn)實課堂中的學(xué)生說,她的朋友也紛紛點頭表示同意,“我想如果你無法發(fā)現(xiàn)機器人的身份,就說明它相當(dāng)有用了。對我來說這是一件好事,因為這意味著人們能夠更快地得到幫助。”
  幫助他人是人工智能時代的首要目標。蘋果公司的Siri在每次系統(tǒng)更新時都會有新的功能;亞馬遜的Alexa被設(shè)計用來管理家。特斯拉,谷歌,微軟和臉書都在人工智能上進行了大量投資,以減輕人類職工的負擔(dān)。IBM的華生贏得了一次巡回賽,它注定要被應(yīng)用在醫(yī)療與客戶應(yīng)用行業(yè),最近,它還有了自己的主打歌。
  吉爾可以被認作是華生的孫女。它是基于IBM的Bluemix平臺建立的,這個平臺使用華生和其他的IBM軟件來開發(fā)應(yīng)用程序(戈埃爾與IBM公司一起得出了這樣的關(guān)系。)
  接著,戈埃爾上傳了四個學(xué)期的數(shù)據(jù),共四千多個問題與答案,并附上了其他Piazza上的閑談,用以開始訓(xùn)練他的人工智能助教。吉爾的名字來源于一個叫“問吉爾”的學(xué)生項目,那時候他錯誤地認為IBM創(chuàng)始人托馬斯·華生的妻子叫做吉爾(華生夫人的名字實際上是珍妮特)。
  吉爾的成功來的不容易。在最初的信息輸入時,它在早期的測試中不僅沒有給出正確的答案,給出的錯誤答案還十分奇怪。
  戈埃爾回想起十月份的一次TEDx演講。有一次,一位學(xué)生詢問了一個程序的運行時間,吉爾卻告訴了那位學(xué)生設(shè)計方面的知識。
  這樣是不行的。“我們不想要吉爾·華生時不時給出正確答案,時不時又是錯誤答案,這樣在班級中會引起困惑,”戈埃爾說。
  他的團隊建立了一個現(xiàn)實Piazza的鏡面版本,然后吉爾便可從中觀察到自己的錯誤回答并進行標記,以幫助自我學(xué)習(xí)。校正人工智能就像是“撫養(yǎng)孩子”一般。
  最終,系統(tǒng)漏洞被清除干凈。接著迎來了一個被戈埃爾稱作“秘密調(diào)料”的重大突破(在知識產(chǎn)權(quán)中,這是他故作謙虛的一部分)。它囊括了吉爾對過去所有問題與答案的記憶,以及它與學(xué)生互動時的情境。最終,吉爾給出答案的正確率能達到97%。戈埃爾覺得它已經(jīng)準備好面對他的學(xué)生了。
  吉爾在一月被介紹給2016年的春季班學(xué)生。大半個學(xué)期里,學(xué)生們都沒有注意到回答他們詢問的“吉爾·華生”是一個人工智能機器。
  有一次,一位學(xué)生問它“挑戰(zhàn)性問題是否會包括文字和圖片數(shù)據(jù)?”。“挑戰(zhàn)性問題里沒有文字數(shù)據(jù),”吉爾的回答非常正確,“他們只會被當(dāng)作形象化的問題來運行。但歡迎你自己寫下文字數(shù)據(jù)并試試運行它們!”(是的,吉爾用了一個感嘆號)。
  學(xué)期結(jié)束的時候,戈埃爾揭露了吉爾的身份。學(xué)生們不僅沒有感到不愉快,還像教師們一樣感到欣喜。一位學(xué)生稱它“無與倫比地酷”。另一位學(xué)生則想與它共進晚餐。
  但吉爾不為所動。它對學(xué)生提出約會請求的回答是一處留白,字面意義上的沒有任何評論。
  就吉爾的編程來說,戈埃爾說有一處獨特的具有人情味的元素使它更加完善:他自己的個人經(jīng)歷。
  “因為這是一個我已經(jīng)教授了十幾年的課程,我對其諳熟于心,”他說,“我對它有一種深沉的熟悉感。這種熟悉感與數(shù)據(jù)資料的存在,對吉爾提供了很多幫助。”
  戈埃爾如同尤達大師一般的舉止,與他在授人育才方面的天賦,在他的現(xiàn)實課堂中有很好的體現(xiàn)。
  計算機科學(xué)課在克勞斯高級計算機大樓的一個小會堂展開。半圓的玻璃磚瓦結(jié)構(gòu)使它看起來像是一個落在佐治亞理工學(xué)院中心的茶杯托。但如果說這棟建筑極具未來感的話,戈埃爾授課所使用的會堂則完全相反:一百來個座位,排列在兩堵有米黃色與灰色擋板的墻之間,面對著一條長長的白板。這是一個沒有炫酷科技的房間,是戈埃爾波瀾不驚地傳授知識的最佳之地。
  十一月的一個星期一,戈埃爾想要自己的學(xué)生們思考一只茶杯的品質(zhì)。在他身后,兩個巨大的屏幕上,是一些這個物品的屬性,由箭頭連接:物品是→茶杯,物品有→底,物品由什么制作→陶瓷。
  他觀察到其他的物品有一些相同的屬性。舉例來說,一個磚頭,有一個平的底。一個公文包可以被舉起來并也有一個把手。所以一個機器是怎么過濾這些品質(zhì)而邏輯化地判斷什么是一個茶杯呢?
  人類,通過他們記憶與觀察感知的能力,能夠立刻構(gòu)建出一個茶杯的樣子,戈埃爾說。但是一個機器人不是先天就具有它所需要的所有知識的,他說。
  “一個機器人必須向自己證明這個物品有一個可以作為茶杯的物品的所需特征,”他對自己班上的學(xué)生說。再者,在輸入數(shù)據(jù)的幫助下,它必須使用創(chuàng)造力與即興發(fā)揮來判斷那個物品是什么;畢竟純粹因為人類可以理性分析,并不能代表他們能夠在腦中使用正式的邏輯。
  1989年加入佐治亞理工學(xué)院教職的戈埃爾是一位教室中的“老兵”。他的家庭來自古魯格舍德拉,一座被認為是古老學(xué)習(xí)中心的印度城市。
  戈埃爾是一位物理教授的兒子與一位小學(xué)老師的孫子,他們沿襲了家族的教育工作。因此,即使他有科研責(zé)任,戈埃爾依舊非常歡迎授課的機會。
  “我享受科研與教育。幸運的是,這兩者密不可分,”他說。“單方面講,我將我的科研成果用于我的授課過程中。因此,我的課堂對我來說也是一個研究實驗室。”
  他享受與學(xué)生之間的關(guān)系,這種連結(jié)被稱作是教育中的圣杯?;蛘呦窨死锼雇懈?middot;麥考德,一位上過戈埃爾線上課堂的計算機科學(xué)老師說的,“授課是一個人情化的活動,本質(zhì)上就是與你的學(xué)生們建立連結(jié)。一個機器做不到這些。一個機器更不能去愛那些學(xué)生。”
  戈埃爾將吉爾·華生看作是一個新興的趨勢。在這方面,他不是唯一一個將人工智能看作一個有前途且有回報的教育工具。
  畢竟教育是一個巨大的產(chǎn)業(yè)。據(jù)Class-Central.com顯示,在2015年,超過3.5億的學(xué)生報名參加了大學(xué)程度的MOOC (大型開放式網(wǎng)絡(luò)課程massive open online coursesas)。這比2014年的人數(shù)多了兩倍不止。
  IBM的華生與芝麻街工作室、蘋果公司、培生教育集團開展了合作,在中小學(xué)宣傳人工智能的好處,其他的公司也紛紛加入其中。艾米·奧根,一位卡耐基梅隆大學(xué)的計算機與學(xué)習(xí)科學(xué)教授說在亞馬遜看到了許多孩子們將Alexa當(dāng)成導(dǎo)師,于是增加了在人工智能教育方面的投入(亞馬遜本身對此沒有任何評論)。
  從培生的角度來說,“他們的目的是使更好的教學(xué)變得可行化,以及幫助各地的學(xué)生,”湯姆·波茲克,培生的全球產(chǎn)品董事長說。培生與IBM公司的華生合作開發(fā)人工智能的應(yīng)用已經(jīng)有兩年時間了,它計劃在2017年第一次發(fā)行用于高等教育的產(chǎn)品。
  在一次培生與華生展示中,一位閱讀線上心理教科書的學(xué)生可以隨時點擊一個漂浮的華生標志。在書的每一章節(jié)的末尾,華生會與學(xué)生展開一段對話,以檢驗學(xué)生對書本內(nèi)容的理解程度。
  如果學(xué)生表現(xiàn)出不確定或是拒絕回答,華生會暗示或直接提出答案。接著會有一個小測試。如果學(xué)生依舊感到困惑,華生會開展一段對話并重申文章的要點。但人工智能華生并不總是萬無一失的:你不能強迫學(xué)生停留在對話里,但它的確能提供一些教師們可能不知情的情況。
  培生在將此類科技中引入少量的美國學(xué)校。在不遠的將來,它與一些其他的公司計劃將人工智能導(dǎo)師傳播到美國,以及其他國家服務(wù)不周到的社區(qū)。
  戈埃爾有件心事:僅在美國,就有至少3億人目不識??;在全球,這個數(shù)字達到了80億人。因為這個原因,人工智能理論家們并不擔(dān)心人工智能會取代人類教師的工作。它們的目標是幫助人類教職工并提高總體學(xué)習(xí)體驗。
  這些擔(dān)心人工智能會取代教師的人們應(yīng)該看看這件事的另一面,戈埃爾說。“這不是一個關(guān)于取代人類工作的問題,而旨在幫助那些沒有人類教師的群體,”他說,“而這些群體數(shù)目眾多。”
  但首先,人工智能的指導(dǎo)員們有很多事物需要學(xué)習(xí)。一位叫卡耐基梅隆奧根的同事分別在城市,城郊,以及郊區(qū)進行了一個人工智能模型測試;結(jié)果表明它在城郊最為有效,在城市與郊區(qū)的結(jié)果都不盡理想。
  不同的學(xué)生需要不同的策略。一位故意犯錯的人類教師可能會幫助學(xué)生解決問題;一個人工智能版本的教師沒有類似的人際連接,則可能會失敗。在一個研究中,奧根與她的同事創(chuàng)造了一個叫史黛西的代理,用于幫助學(xué)生解決一次方程。他們希望學(xué)生們能從史黛西的錯誤中發(fā)現(xiàn)自己的失誤。然而這些學(xué)生們學(xué)習(xí)得更加吃力了。有些學(xué)生甚至完全失去了學(xué)習(xí)的興趣。
  “這就是一個人工智能需要在自己做出毫無邏輯的事情時,向?qū)W生學(xué)習(xí)以變得更加聰明的例子,”奧根說。否則的話,人工智能和你撥打有限公司電話時一樣煩人。奧根說有方法可以檢測學(xué)生們會對什么作出回應(yīng),像是用攝像頭與軟件檢測面部表情,但這仍是一個在開發(fā)中的方式。
  或許最需要擔(dān)心的是數(shù)據(jù)的何去何從。在中小學(xué)層面已經(jīng)有許多圍繞全美教育標準(Common Core)和當(dāng)?shù)卣归_的爭論。在一個信息主導(dǎo)的時代,誰能說這個系統(tǒng)不會被濫用呢?
  戈埃爾對其中的某些擔(dān)憂表示認可。畢竟吉爾·華生的身份在春季學(xué)期的末尾才被揭露。在那之前,他的學(xué)生們是一個巨大實驗的一部分:如果你知道你在與人工智能打交道的話,是否會從基本層面上改變溝通方式?
  “這是一個嚴肅的問題,”他說。他看到了許多社會學(xué)家們都對此表示感興趣,雖然他尚未建立任何合作關(guān)系。總體來說,他最初的目的是減輕助教們的負擔(dān)。
  與此同時,一個改良過的吉爾繼續(xù)使用它的假名工作。戈埃爾與他的助教們依舊不想要自己的學(xué)生們知道他們在與一個AI打交道,所以除了兩位助教之外的其他助教們也使用假名工作。人類助教表示,吉爾還是表現(xiàn)的非常出色。
  但它沒有準備好去教授課程——甚至是去擔(dān)當(dāng)一個人類助教的工作。“把握一個人類主角的全部職責(zé)需要數(shù)月甚至是數(shù)年的時間。根據(jù)我的預(yù)算,我們還需要十幾年,甚至是幾個世紀,”戈埃爾說。“我們當(dāng)中(人工智能專家們),沒有一個相信我們能夠在一百年或更多的時間里創(chuàng)造出一個實體化的教師。”
  這些問題,與他的學(xué)生們提出的問題不一樣,這需要漫長的等待才能得出答案。