使用55688 APP綁卡付款簡單又快速,只要事先在APP上綁定好信用卡片,到達目的地後就能使用APP付款,綁定後在操作上也相當簡單,告知司機付款方式後,確認副駕駛座後方螢幕中顯示金額無誤後,並點選55688 APP付款,透過手機綁定信用卡或掃描QR code方式就可以完成付款,讓搭車變得方便又快速。
新聞來源 藍再公布不雅影片截圖 羅致政:中共網軍介選抹黃(中央社) 羅致政影片真偽不公開藍質疑介選 陳建仁:不同意(中央社) 延伸閱讀 媒體報羅致政性私密片調查局鑑定為「無偽造」,新北檢證實收到報告,但無法公開說明 網傳羅致政DeepFake造假私密片,調查局教學如何辨識深偽影片 羅致政外遇風波:政治人物最怕「德不配位」,無法挑起社會期待 【加入關鍵評論網會員】每天精彩好文直送你的信箱,每週獨享編輯精選、時事精選、藝文週報等特製電子報。羅致政9日上午在臉書發文指出,他與民進黨立委洪申翰都遭到境外介選抹黃,他們共同發表三點聲明,包括絕對不能讓中共網軍介選得逞,動搖國本、國安單位應快速介入調查,公布介選供應鏈真象、紅統政媒先造謠抹黑,抹黃,統媒、藍營政客接手攻擊無限上綱,這就是典型的一條龍介選模式。
陳建仁答覆,檢調調查過程非常審慎。他並公布部分影片截圖說,其中使用道具自拍、猥褻的言語樣樣來,將送交檢調深入調查是否是所謂的Deepfake(深偽)或中共介選。陳建仁說,這是曾銘宗自己的猜測,大家不是偵查專家,所以要檢調審慎調查,事情的調查需要時間陳建仁回應,這也在偵查當中。部分立委質詢時也提問時事,與陳建仁言詞交鋒。
此外,國民黨立法院黨團首席副書記長李德維、副書記長王鴻薇,以及國民黨立委林為洲等人,9日在立法院國民黨團召開記者會。曾銘宗質疑,「你不公布,就是政府介選,你同不同意?」陳建仁說,「不同意」。國防部作計室防空處處長莊鴻文補充說明,這次國家級警報,是由空中部指揮官依照掌握當前狀況,參考《國軍突發狀況處置規定》下達發布指令。
此次任務是長征系列運載火箭的第506次飛行。災防告警細胞廣播訊息網站建議,民眾應接受憲警及民防人員指(誘)導確實進入防空避難處所,居家者應緊閉門窗及實施燈火管制。還可留言與作者、記者、編輯討論文章內容。Photo Credit: 災防告警細胞廣播系統 災防告警細胞廣播系統一度出現影響區域。
該火箭飛行路徑非預警飛越我本島南部上空,高度位於大氣層外。根據中國《央視》、《人民日報》稍早報導,中共於北京時間9日3點03分,在西昌衛星發射中心使用「長徵二號丙運載火箭」,成功將「愛因斯坦探針衛星」發射升空,衛星順利進入預定軌道,發射任務成功。
國防部今(9)日稍晚發布影片,展示火箭航線示意圖,也說明為何這次會發布國家警報。pic.twitter.com/AdmTD7kVzB — 人民日報 Peoples Daily (@PDChinese) January 9, 2024 外交部長吳釗燮稍早於國際記者會上表示,衛星發射應被歸類為中國試圖介選的「灰色地帶」行動(gray zone activities)。立刻點擊免費加入會員。國防部證實:中共發射是衛星,簡訊英文寫錯了 國防部今日發出新聞稿,證實下午3時3分許,中共於四川西昌衛星發射中心,執行長征系列運載火箭搭載衛星發射任務。
不過國家級警報大響,也讓外界質疑是否有其必要。(20:43 更新國防部說法) 今(9)日下午不少民眾收到國家級警報,提醒有衛星已飛越南部上空,請民眾注意安全。至於簡訊英文用語,國防部表示,因疏忽未同步更新原系統用字、精準表達發射物係衛星而非飛彈,國防部向社會大眾致歉儘管GPT-3與推薦系統(recommendation system)已有長足的進展,但就目前由人類處理的許多決策而言,要想憑著目前的AI路線來破解人類智能,甚至光是達到極高水準的生產效率,都還言之過早。
儘管如此,過度配適仍然是統計上的一大難題,因為它與目前AI路線的缺點直接相關:對於正要建立模型的現象,缺乏一套真正的理論。但如果沒有一套正確的理論,就很容易誤把「因果」與「相關」混為一談,而機器學習就常常出現這種情況。
換言之,正因為「背景」並非狼的決定性特徵,所以一旦周遭世界或環境改變,這種判斷方式就會導致錯誤的預測。此外,正因為這是個社交情境,所有人都會不斷依據現有證據做出回應,所以未來的情境很有可能還會改變。
首先,由於所謂確切的情境難以定義與編碼,也就很難應對情境的資訊。對於機器智能來說,過度配適特別麻煩,因為那會讓人誤以為機器的表現十分出色,但其實錯誤百出。第二,隨著氣候暖化,狼的棲地可能會改變,因此程式需要能在不同環境中辨別狼隻。這套程式有時就連很簡單的指令也會出現誤判,難以對不斷變化或全新的環境做出充分的回應。要是機器智能無法從這種情境與社交層面來了解人類的認知、掌握人類行為會如何動態調整,就會不斷碰上過度配適的問題。但這兩種配對方式根本是不相關的特徵,原因有二:首先,人類不是用這樣的背景因素來定義或分辨動物。
如果背景是雪山那樣的自然情境,AI則會判斷是狼。舉例來說,由於太多人被演算法鼓勵去申請某個職缺,會讓申請應徵的人數超過職缺數目,那麼這個職缺就不再是個理想的選擇了。
此外,AlphaZero的西洋棋智能其實也非常局限,雖然常常能夠走出既符合規定、又叫人讚嘆的棋路,但這種「創意」的性質卻不像人類常常會做出的那種「創造性活動」(能夠在各種非結構性的不同環境當中做比較,或是對各種全新的問題找出解決辦法)。在這種時候,整個需要判斷的情境會不斷因為人的反應而改變,甚至這種改變正是因為有人參考了演算法的資訊。
舉例來說,雖然「溫度」與「各國每人平均GDP」這兩個變數在統計上相關,但並不代表氣候會對經濟發展造成巨大影響,原因可能只是在某段特定的歷史中,歐洲殖民主義對於不同氣候的不同地區有了不同的影響。更麻煩的一點在於,這項技術並不具備人類的社交或情境智能元素,因此執行任務時,GPT-3無法判斷情境的脈絡,或從中推論因果關係。
然而,這還稱不上真正的智能。令人擔心的地方在於,一旦出現過度配適,統計模型會把資料當中其實無關的部分也納入計算,於是所做的預測或結論都出現失準。舉例來說,AI最為人樂道的成功案例之一,是第一章曾談過的AlphaZero西洋棋程式,有人甚至認為AlphaZero具有「創意」,因為它能夠下出人類西洋棋大師未曾見過或想像的棋路。當某人想要應徵某個職缺,這時演算法可能會以職缺遠遠少於應徵人數,判斷此人的決定是錯誤的並加以糾正。
首先,AlphaZero的用途非常局限,只能用來下西洋棋這樣的遊戲,一旦超出這個範圍,就算只是簡單的算術或是需要更多社交互動,AlphaZero都無力處理。對人類來說,區分哪隻是狼、哪隻是哈士奇並不難,但這項任務對AI來說卻很困難。
讓我們舉個經濟上的例子。事實上,從這些討論還讓我們看到一個更大的問題:統計方法雖然能夠辨識模式、做出預測,但掌握不到許多人類技能的本質。
文:戴倫.艾塞默魯(Daron Acemoglu)、賽門.強森(Simon Johnson) 「通用AI」的幻覺 目前AI的發展路線是以圖靈的主張為圭臬,追求的就是通用、達到人類水準的智能。統計方法長期以來還有另一項問題,稱為「過度配適」(overfitting),一般指的是為了想要精確呈現實證上的關係,結果在統計過程參考太多的參數。
而不管先前曾用怎樣的方式來消除過度配適的問題(例如區別培訓用與測試用的樣本資料庫),問題還是可能存在(例如兩個樣本資料庫都屬於還有諸多職缺的情形)。後來有某些演算法似乎表現得很不錯,但後來發現這是因為過度配適:如果背景是都市,像是有平整的草皮、消防栓,AI就會判斷為哈士奇。更麻煩的是,目前還沒有辦法調整AlphaZero的架構,讓它做到許多人類覺得很簡單的事,像是找出相似之處、玩一些規則不那麼嚴格的遊戲,又或是學習某種語言,而這些事每年都有幾百萬個一歲小孩能夠做得又快又好。在一種情況下,演算法過度配適的影響還會更為嚴重,那就是在社交情境中,人類會不斷對新資訊做出回應。
讓我們以「區分狼和哈士奇」這項任務為例。統計學設計出很多方式來避免出現過度配適,像是研發演算法時先用另一份樣本,而不是最後真正要應用演算法的樣本。
如果我們仔細看看人們目前現有的成就,就會發現把人類擅長的事情全都交給機器處理會有多困難讓我們以「區分狼和哈士奇」這項任務為例。
這套程式有時就連很簡單的指令也會出現誤判,難以對不斷變化或全新的環境做出充分的回應。在這種時候,整個需要判斷的情境會不斷因為人的反應而改變,甚至這種改變正是因為有人參考了演算法的資訊。