發表文章

目前顯示的是 6月, 2015的文章

人工智慧,一個程式人的新方向

圖片
近期研究報告指出,機器人距離個人學習與複製學習能力越來越強大。   以 Google 來說,程式編寫者就使用電影中的對白數據一次次地使用來研究機器人規範能力。 他們很努力完成,而以下為人類的工程師因為與機器人審訊對話完變成惱怒的對話 : 人 : 告訴我如何定義道德規範呢 ? 機器人 : 我沒有道德觀 人 : 嘿 ~ 我需要你的幫忙,我需要了解道德觀這些東    西多一點啊 機器人 : 我不知道什麼是道德   人 : 好吧,我應該告訴你我是如何在表現上有道德的 機器人 : 我不知道如何判別 人 : 那麼道德與倫理相同嗎 機器人 : 是的 人 : 那做了些什麼是會讓我不道德呢 ? 機器人 : 我不知道 人類 : 可以給我相關道德這類型行為的舉例嗎 機器人 : 我又不是衛道者 人類 : 好吧,那麼道德是啥 ? 機器人 : 融合的 人類 : 什麼是融合的 ? 機器人 : 抱歉我不知道怎麼和你說 人類 : 做個有道德的東西吧 機器人 : 做個人類 人類 : 我實在很想和你討論道德與倫理 機器人 : 我不喜歡在這種哲學間的辯論 人類 : 那妳喜歡談論什麼呢 ?   機器人 : 沒有 藉由大數據的使用取得和電腦晶片的成本下降,這個變化清楚地從目前最新的大型科技公司中人工智慧部門表現出來。這樣的成果是近期發展中,關於感知電腦部分,教學型電腦模仿人類腦袋運作。而主要在這領域的自然語序程式工作已發展完成,例如如同人類般達到片段演講或為文,或是他表現出像是書本或是資料一樣能夠抽取出義涵或內容得以直接傳達。 Google app 和 Apple Siri 和 Microsoft's Cortana 的人目前也積極的協助自然語彙的研究。 翻譯至原文 : http://blogs.wsj.com/digits/2015/06/26/artificial-intelligence-machine-gets-testy-with-its-programmers/ 未來也會不定期的翻譯科技新文~~小小試手~如有錯誤也請大家不另指出啊 !!

最近的書單

書單: 當代正義論辯 古拉格群島 第四消費時代 版面設計思維 旁觀者 下一個社會 巨變時代的管理 第五項修練 成長的極限 西方的沒落 歷史研究 歷史研究 雜誌:x5

訪問

做實事,更要有尊重與同理心 今天被一位好朋友要求訪問,從晚上的八點錄到九點,在交誼大廳中一對一的錄像錄音, 她是一位歷史系的朋友,是我過去一段時間交流最深的一位朋友了,她說因為大學快要畢業了,湊巧自己考上了研究所,所以希望趁目前空檔做些不同的事,幫周遭的朋友錄像做紀錄。大致上準備了五大題組,每個題組約莫是5題,不外乎是問問你是誰?有沒有轉過系或學?理由是什麼?未來規劃為什麼這樣做等? 我覺得這些問題相當的有意義,也有助於自己的反思與思辯,所以欣然答應。只是過程中我覺得她並沒有了解到「當一個人願意和你交心,那是因為信任你,而他需要的就是你的尊重或是了解」。 而過程中,希望她可以到外面去或是另一個相對較安靜或是隱密的環境等,畢竟還是不希望被別聽到,我提議出去,她只考量到燈光問題或是不方便看等問題,我覺得這就相當的不貼心的。另外,在錄影中,針對問題等地回復,也相當的制式,一個問題問完就問下一個問題,當然這是非常有效率與方便剪接作業,但是我並不是為了要完成她的功課或是報告,而是當作朋友和他交流,但這會給人感覺,喔~我聽到了,但干我屁事,我只是要做剪輯,就是這樣。對我的感覺來說,你應該就是沒興趣了,那我何必認真說呢?另外在回答上,也不准說跳過問題或是回答順序調整,而只是要求照續,這感覺實在很差。被當工具罷了。 未來,我若未有實質作為,我不會出來演講或是分享,因為價值都是自己的事,每一句話語言論都應該要小心,人,遠比想像的容易受影響。 這次的紀錄,我更了解了自己,打了上面的文章,我更能坦蕩面對自己要交的朋友類型或是做選擇了,我不需要什麼都去配合或是應從,我要追尋自己的心,不適的就砍掉,不合的就是不做也省得在那邊搞人情。人上人有必要,但那並不是真的做人,真的做人,就先做自己,如果自己都做不了,估計一輩子在有錢也只是做財奴。