跳到主要內容

Open AI Sora,是恐慌的開始,還是美好未來的起點?︱ElenaForesight

OpenAI 推出 高品質影片生成式 AISora」後,在全球掀起熱烈的關注,即便在還沒有對外開放,「Sora」也在網路媒體上引起一窩蜂的討論。

☆°.﹒☆°.﹒ ☆°.﹒ ☆°.﹒ ☆°.﹒ ☆°.﹒☆°.﹒ ☆°.

CIFAKE: Image Classification and Explainable Identification of AI-Generated Synthetic Images

Article  JORDAN J. BIRD AND AHMAD LOTFI
IEEE Open Access, Received 15 December 2023, accepted 17 January 2024, date of publication 19 January 2024, date of current version 1 February 2024.

 本文由 Joe Chan】指定主題


 
那一張圖片是小朋友親手畫的呢?AI以圖生圖的,又是哪張呢?
(畫家:Elena原創小畫家、Playground AI生成圖片)

20242月中下旬,OpenAI 推出 影片生成式 AISora」後,這個以文字轉出高品質視訊的AI模型在全球掀起熱烈的關注,即便在還沒有對外開放,「Sora」也在網路媒體上引起一窩蜂的討論。

Sora」採用 擴散模型 (Diffusion Models),並基於先前的DALL·E GPT 模型研究技術,可以根據文字指令生成影片,也能依據靜態圖像生成影片;根據官方資訊,目前「Sora」已被用於「紅隊演練」,也有提供部分視覺藝術家、設計師和電影製作人試用,未來也會對大眾開放。雖然至今,官方提出「Sora」仍有一些缺點,但其 "可以生成擬真度幾近100%的影片""能在單一生成的影片中創建多個鏡頭視角" 等功能,已經引起可能會提高失業率助長詐騙行為的恐慌!

研究學者們也看到了這些令人擔憂的未來,所以紛紛產出相關應對研究;這篇推薦的文章是IEEE Access 中一篇 "基於CIFAK資料集 AI生成影像辨識" 研究論文,但導讀的內容不長,因為這是一篇前瞻技術研究,重點圍繞著技術類的研究方法,一如既往,因研究方法涉及專業,所以不做討論。

藉由電腦的能力來區分 "真實影像" "AI生成的影像" 是非常重要的,因為高品質影像生成的技術進步神速,人類幾乎已經無法區分 照片 透過人工神經網路等人工智慧模型所生成的影像。而這樣的技術應用也已衍伸成為假新聞、侵犯隱私、倫理、欺騙以及詐欺等嚴重犯罪問題,因此我們愈來愈需要一個能夠幫助人類識別 真實圖像 人工智慧生成圖像的系統。

為了因應「以AI檢測影像資料真實性」的關鍵需求,這篇研究提出利用AI技術 提升電腦視覺識別AI生成圖片及影像的能力;關於技術面,大概可以簡要理解為:使用卷積神經網路(CNN)透過CIFAKE-10 (10個類別的資料集) 作為對照,將影像二元分類為 "" ""

建立AI工具來幫助 "偵測誤導性內容" 勢在必行,透過使用電腦視覺來提高識別人工智慧生成圖像的能力,並透過視覺線索提供對預測的洞察力是這篇論文的研究目標。

目前的事實是,AI的擬真生成技術已經發生了,而且未來會有更深入的AI應用發展,在透過專家們的努力,以及釋出的研究資訊中,可以得知:

  • 應變AI生成技術成熟隨之而來的衍生危機,重點在於「以彼之道,還施彼身」!
  • 利用AI來解決AI造成的危機 (包含,AI生成的數據訓練AI,培養其判別圖像及影像真偽的能力),已是全球專家們刻正進行之事。

 

另外,利用AI來辨別真實影像與AI生成影像的過程中,需要收集大量的真實與虛假影像以建立資料庫。那麼,問題來了,怎麼能確認提供給AI學習的「真實」影像不是偽造的、不是AI生成的擬真影像?這個議題就涉及了數位平台及資料庫系統擁有者的可信度與長期自制力!如何確保平台方與系統方不會因為私慾而混淆影像庫?這一點也迫切需要專家們提出應對解法!

歐盟執委會創新及研發總署在20242月發表的「2040年創新與智慧財產權規範的未來」中,也有提到

  • 未來,世界將由 少數大型數位平台 資料庫系統擁有者 主導
  • 這些數位平台更將透過演算法累積大量數據和資源,並藉由對人工智慧與密碼學等技術的掌握,控制世界的發展

 

這是另一件會讓人感到恐慌的事情,但同樣地可以在警覺性的觸發後,以防範災難及降低風險的角度來 "想辦法"!畢竟阻止科技發展勢必不可行,最佳的解決方法仍會落在運用創新技術來解決創新產業發展造成的困境,並且不斷地再以技術的創新與規範的調整來完善應對措施
一如(呼應)前段提及的「以彼之道,還施彼身」而提供一個例子:為防範駭客、完善資安滲透測試,便採用 「紅隊演練」的方法,甚至循序導入更新穎的「紫隊演練」概念。

所以,在感覺恐慌之前,或許可以一起來多想想還有哪些前瞻技術解決方案能夠導入、一起阻止科技發展造成的各種 (未來) 風險!


備註

  • 紅隊演練;Red Teamers:從攻擊者角度出發,透過模擬情境進行網路攻擊演練,找出各種可能的漏洞與風險,以便後續針對弱點增強防護力。採用 紅隊攻擊演練與藍隊守備演練 來加強網路安全,是資安攻守中重要的手法。 
  • 另一篇可以延伸閱讀的 偵測人工智慧生成虛假影像方法研究 論文 GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image」。 
  •  CIFAKE 是一個包含 6萬張合成影像 6萬張真實影像的資料集 (CIFAKE-10 彩色圖片的資料集) 
  • 紫隊演練;Purple Team:讓紅隊和藍隊能站在同一陣線,一起溝通、合作完成演練。 


 

留言

熱門文章

留薪+留心=留才︱人才永續

員工寧願降薪也要換工作! 最簡單,也是最大的原因: 企業內部管理與文化出了問題,員工的心留不住了。

抖音腦,怎麼辦? 閱讀,真的很重要 !

隨著短影音的盛行,多數人改變了資訊吸收的習慣。隨著"錯誤訊息傳遞"或"影響人類的學習效率"等議題浮現,妳(你)覺得閱讀,重不重要呢?