🎤 爲偶像應援 · Gate送你直達 Token of Love! 🎶
家人們,現在在Gate廣場爲 打 Token of Love CALL,20 張音樂節門票等你來瓜分!🔥
泫雅 / SUECO / DJ KAKA / CLICK#15 —— 你最期待誰?快來一起應援吧!
📌 參與方式(任選,參與越多中獎幾率越高!)
1️⃣ 本帖互動
點讚 & 轉發本帖 + 投票你最愛的藝人
評論區打出 “我在 Gate 廣場爲 Token of Love 打 Call !”
2️⃣ 廣場發帖爲 TA 打 Call
帶上 #歌手名字# + #TokenOfLove#
發帖內容任選:
🎵 最想現場聽到的歌 + 心情宣言
📣 應援口號(例:泫雅女王衝鴨!Gate廣場全員打 Call!)
😎 自制表情包/海報/短視頻(加分項,更容易中獎!)
3️⃣ 推特 / 小紅書發帖打 Call
同樣帶上 #歌手名字# + #TokenOfLove#
內容同上,記得回鏈到表單 👉️ https://www.gate.com/questionnaire/7008
🎟️ 獎勵安排
廣場優質發帖用戶:8張門票
廣場幸運互動用戶:2張門票
Twitter 優質發帖用戶:5張門票
小紅書優質發帖用戶:5張門票
📌 優質帖文將根據文章豐富度、熱度、創意度綜合評分,禁止小號水貼,原創發帖更易獲獎!
🕒 8
麻省理工推出PhotoGuard 技術,可保護圖像免受惡意AI 編輯
撰文:Andrew Tarantola
來源:Engadget
Dall-E 和Stable Diffusion 只是開始。隨著人工智能生成系統的普及,以及各公司努力將自己的產品與競爭對手的產品區分開來,互聯網上的聊天機器人正在獲得編輯和創建圖片的能力,Shutterstock 和Adobe 等公司就是其中的佼佼者。但是,這些新的AI 功能也帶來了我們熟悉的問題,比如未經授權篡改或直接盜用現有的在線作品和圖片。水印技術可以幫助減少後者問題,而麻省理工學院CSAIL 開發的新型“PhotoGuard”技術則可以幫助我們防止前者的出現。
據悉,PhotoGuard 的工作原理是改變圖像中的部分像素,從而破壞AI 理解圖像內容的能力。研究團隊所說的這些“擾動”,人眼是看不見的,但機器很容易讀懂。引入這些偽影的“編碼”攻擊方法針對的是算法模型對目標圖像的潛在表示-- 描述圖像中每個像素的位置和顏色的複雜數學-- 從根本上阻止了人工智能理解它正在看什麼。 (注:偽影(Artifacts) 是指原本被掃描物體並不存在而在圖像上卻出現的各種形態的影像。)
“編碼器攻擊會讓模型認為(要編輯的)輸入圖像是其他圖像(如灰度圖像),”麻省理工學院博士生、論文第一作者Hadi Salman 告訴Engadget。 “而擴散攻擊則迫使擴散模型對一些目標圖像(也可以是一些灰色或隨機圖像)進行編輯。”這種技術並非萬無一失,惡意行為者可能會通過添加數字噪音、裁剪或翻轉圖片等方式,對受保護的圖像進行逆向工程。
“涉及模型開發人員、社交媒體平台和政策制定者的協作方法可以有效防禦未經授權的圖像操縱。解決這一緊迫問題在今天至關重要。”Salman 在一份新聞稿中表示。 “雖然我很高興能夠為這一解決方案做出貢獻,但要使這一保護措施切實可行,還有很多工作要做。開發這些模型的公司需要投入資金,針對這些AI 工具可能帶來的威脅進行強大的免疫工程設計。”