2022年11月,美國科技公司OpenAI開發了聊天生成預訓練轉換器ChatGPT,該程式能夠以文字方式互動,而除了可以用人類自然對話方式來互動,還可以用於甚為複雜的語言工作,包括自動生成文字、自動問答、自動摘要等多種任務。
自從ChatGPT面世以來爭議不斷,教育界人士指出學生有機會利用該程式進行課業問答,企圖蒙混過關,削弱學生的學習效能。另外,多種行業的不同工種有機會逐漸被人工智慧淘汰,例如電話銷售、客戶服務、倉庫工人、出納和運營人員、電話接線員、收銀員、快餐店員工,以及洗碗員工等等。例如,軟件公司Adobe推出了最新版本的修圖軟件Photoshop 24.5,其中新設功能是AI生成擴展圖像,只需一部分圖片,便能透過人工智慧生成全境,能夠取代人手修圖的工序,並且快捷完美。
面對以上挑戰,OpenAI執行長阿特曼(Sam Altam)於5月17日出席美國眾議院聽證會,警告AI不安全,應制定規範。他表示,生成式AI的出現子比「印刷機時刻」,能夠改善和創造工作。他強調,監管措施對風險管控至關重要。他對AI可能對世界帶來危害深憂心,希望能與政府合作,防範新技術發生問題。
其實,阿特曼的擔憂並非空穴來風,早在他出席聽證會之先,中國公安部於5月9日發布了中四第一單ChatGPT罪案。4月25日,甘肅省平涼巿警方發現了網路上有一篇文章,提及一宗故「今晨甘肅一輛火車撞上修路工人致9人死亡」並廣為流傳,不過經過初步調查,警方判斷該文章是一則假新聞。警方繼續深入追查後,發現當天共有21個百度帳號,於同一時段一起發佈這篇文章。帳號位置除了平淑,還有蘭州、隴南、定西、慶陽等地,且這篇假新聞的點擊率高達1.5萬。後來,警察前往公東莞,調查涉案帳號持有人的住處,調查他用的電腦與帳號。經過訊問,嫌疑人洪姓男子承認犯案,他透過網友得知將網路流量變現的方法後,便購買了大量的百度帳號,再將近幾年重大社會新聞的元素輸入ChatGPT,編寫出一段假新聞,藉此非法獲利。最後,警方以編造、散布假新聞,以尋釁滋事罪檢查洪姓男子。
除了假新聞,人工智慧確實有可能危害人類的生命。本年6月初,根據英國《衛報》及《商業內幕》的報,美軍在一次模擬試驗中發現,由AI控制的無人機採取了出乎意料的略,攻擊並殺害了其操作員,以防止操作員妨礙完成任務。當然,在現實世界中,沒有任何人類受到傷害。就此事件,美國空軍人工智慧試驗及行動部負責人漢彌爾頓上校在5月24日的峰會上警告,切勿過度依賴AI,必須謹地討論倫理和AI的議題。
由此看來,人工智慧確實有機會在各方面威脅人類,就好像電視《未來戰士》(The Terminator)的橋段,未來世界由人工智慧機械人主導,對人類進行殲滅,從而領導全球。就此,人類不應等到未來才醒覺,而要當機立斷,趁早防範,對人工智慧作出適當的應對。
原文刊登於《HKWISDOM》10/6/2023
https://www.facebook.com/100087149791482/posts/pfbid02JyuLVNjSmJKD5jqStvvcDj7Z6ZbzZAGv1BdSh8x4B4j7SA1n1PLVDnR639UuZTBHl/?d=w&mibextid=qC1gEa
沒有留言:
張貼留言
注意:只有此網誌的成員可以留言。