5/14/25

Web3 speech 4: Turing SPACE圖靈台灣代表人

 台灣過去一年240萬次的網路攻擊

烏克蘭的難民沒帶著自己的証明文件,專業技能或學經歷都沒了

DID(去中心化的身份)

DID是不可被篡改的數位身分辨識碼

DID不是單一機構發行的


VC(可驗證的憑據)

可信的機構所發出的數位憑証可溯源

持有者將VC存在自己的錢包,主動出示


VP(可驗證的展示文件)

vp是VC的組合包(身分證,健保卡,駕照)

只把須展示的部分show出來


三大商品

Turing cert:數位憑証的保持及發行平台(發症者)ex台大、監理站

(發出VC)

Turing wallet(持證者)

(數位皮夾)(展示VP)

Turing verify:可以展示快速查驗(驗證者)ex企業,和租車公司

(一鏈認証)


資安技術:

SHA 256演算法(hash)~上鎖

RSA非對稱加密~加密

IOTA區塊鏈.~上鏈

I5027001安全隱私


可指定的證書(編輯不同樣式的證書)

一鏈上LinkedIn

Turing wallet可以按時間序,可以選捍那些要揭露或隱藏


經濟部再生能源憑證發出

台大給海外人士發的畢業證書

柏克萊大學給的海外畢業證書也是瓜ring做的



Web3 speech3: 數發部的數位皮夾

 數位發展部李科長

數位網絡世界的身分驗證痛點

個人識別的方案:

集中式驗証^叫你去mom o網站上註冊,由主機記錄

聯邦式驗證^用Google mail或facebook驗證,透過第三方

分散式驗証^數位皮夾(自已決定要拋什麼資料)(它不是數位身分證)(它也不是Apple皮夾Google皮夾)


數位皮夾是一個容器,但不是new ID或new wallet

證明自行的分

選擇性揭露

互動性,例如數位駕照也可在日本使用


W3C的標準(全球貿協)

IETF及DIF及open ID的技術規格


四個特性

數位自主SSI

分散性信任

Permissionless(

開源分散式資安架構


SSI:  發證者,持有者,驗証者

政府只公告:信任清單說xx發証者是否可靠

政府不負責發証,不背書,也不存有「持有者的資料」

驗証者自己負責接不接受發証者的信賴度


W3C的VC

金融及就業背景調查,以後都用區塊練

教育資格証明

旅遊證明ex疫苗

Microsoft verifier ID


數位皮夾

將個人的證件都放在手機內

這個皮夾內的駕照(發行者是監理站)會連動監理站資訊,但數發部不存檔

目前只做自然人的驗證,非自然人(企業工商憑證或資產)目前可能不能放入皮夾





Web3.0 speech2:國泰金控的RWA

 RWA的成長2022到2025成長六倍

未來資產代幣化是趨勢

國際金融界都在做RWA,債券、基金及黃金代幣化

匯豐銀行已做黃金代幣化類似REIT


交易所也在做RWA

瑞士SDX交易所一UBS-投資人

日本大阪ODX交易所一NOWARU及大和證券一投資人

|發行企業連接的機構

瑞士obligate


國泰債券代幣化:

合規~~以金融商品來管理

有牌照的~~國外交易所核發的交易牌

結算的貨幣~~例如穩定幣來結算


基金代幣化最大的BUDL

發在公鏈上交易,SECURITIZE一BlackRock的BUDL fund一傳統基金市場


00909國泰ETF

00762元大AI ETF


RWA的目的

讓這些流動性低的商品透過token化而可以加速流動


RWA代幣化小組(Winnie)

金管會對公司債發行委國泰做POC

投資人可以對次級市場之交易

可24小時都交易

用戶的錢包是第三方的


用公鍵交易

方便未來接到海外方便

公連之缺點是gas fee

聯盟鏈會快,也省錢

智能合約:ERC 3643 (身分驗證及智能合約


2019-2023國泰世華STO做私連的

2024-20 25做RWAPOC

2026-2030其他RWA商品


未來的挑戰:

公鏈私犍連盟連都各有好壞

法規銜接

消費者的保護(誰負責)

誰來保管這些代幣?

怎麼和國外銜接?結算的貨幣?


還有很多議題待理解及定義,

資料及個資

結算及交割

區塊鏈web3 speech 1: Spark Lands創造

 一,Sparklands Daniel Wang

中央大學通訊系畢去大陸工作三年回台作貿易

人類文明:火。輪子(移動/效率)。貨幣(交換/信任)。區塊練(信任/去中心化)

它的主業是做不動產仲介

RWA(real world assets)的賽道須有實際資產一Token的發明一區塊鏈技術尤其智能合約

人的需求是貨,而不是money

虛擬貨幣就是token(憑証),(代幣)存取的密碼也是

Token的basis就是blockchain,如智能合約

Rwa.xyz這網站可以理解RWA的trend

RWA的主要數別:貨幣、商品、碳權及房地產

代幣分三種:支付型(當貨幣用),功能型(gas當費用),資產性(不動產的代幣)


RWA的tokaizati on

資產識別(選擇資產)

法律架構(符合法規)

智能合約的開發

發行及交易


Sparklands web3不動產Tokenization(將房子的債權分割給消費者)~不走証交法

24小時線上交易

不動產創造的收益/打包成債權再分割給大家投資

RWA Books:金融世界的未來

像REIT是web 2的不動產證券化~符證交法管理

只能在股市交易

全球指標企業Real T,Not a Hotel


https://sparklandsco

註冊:KYC /sumsub

加密錢包:Privy穩定幣

幣安鏈

真實簽約紙本簽

線上的數位憑證

智能合約



5/06/25

Al的趨勢與應用

這是5月4日台大EMBA孔令傑教授演講的摘要。

會議記錄內容圍繞人工智慧 (AI) 的不同概念、應用現況及未來發展進行討論 [i, j, k]。廣義來說,AI 是指能協助人們做出更好決策的電腦系統。AI 的實現方式主要分為兩大類:規則式系統 (Rule Based System) 和資料驅動的智慧系統。

規則式系統是基於人類經驗或統計分析結果,由人制定一套明確的規則並寫入電腦,讓電腦依據這些規則進行判斷或行動。例如,根據年齡和性別設定車險費率,或依室溫設定冷氣開關的門檻值。這種方法雖然簡單易懂,但列舉規則有其極限,尤其當問題複雜或需要考量的情境多樣時。

為了克服規則式系統的限制,發展出了資料驅動的智慧系統,其核心思想是讓機器從歷史資料中自行找出規則。這又可細分為機器學習 (Machine Learning) 和深度學習 (Deep Learning)

機器學習主要處理結構化資料,這類資料可以很好地整理成表格,如客戶年齡、性別、交易紀錄等具有明確意義的變數。機器學習模型透過分析這些資料,自行生成判斷規則。常見應用包括預測信用卡盜刷機率、預測會員流失 或使用者可能喜歡的影片或商品。現代的機器學習需要大量的資料來訓練模型

深度學習,它使用層數更多的類神經網路 (Neural Network)。深度學習的主要優勢在於能夠處理非結構化資料,如影像、聲音和文字。與結構化資料中變數有明確意義不同,非結構化資料如影像的每個像素本身意義不明確且數量龐大。深度學習模型能夠從這些底層、無意義的變數中學習複雜的模式。應用範例包括影像辨識 (如辨識圖片中的物件、人臉、偵測產品瑕疵)、文意理解等。訓練深度學習模型需要超大量的計算資源和資料

在 AI 的應用中,預測 (Prediction) 是一個核心概念。來源區分了狹義的「預報」(Forecasting),特指對未來事件的預測,如天氣預報或需求預測。而廣義的「預測」(Prediction) 則包含對未來及沒有時間先後關係的猜測或評估,例如判斷信用卡交易是否為盜刷。雖然中文常用「預測」統稱,但在思考問題時理解其廣泛含義很重要。AI 不僅能做預測,還能基於預測或其他分析結果協助或自動進行決策 (Decision Making),這通常涉及實際的行動,並往往包含最佳化 (Optimization),即在特定目標下(如最大化營收、最小化成本)做出最佳選擇。應用例有自動駕駛、機票價格動態調整、製造業品質管制、電銷名單篩選。

近年來,生成式 AI (Generative AI) 的出現帶來了重大突破。這是一種能夠產出豐富、非結構化內容(如文章、圖片、聲音、影像)的深度學習模型。相較之下,較早發展的 AI 或主要輸出簡單判斷(如是否盜刷、有無瑕疵)的 AI 被稱為判別式 AI (Discriminative AI)

生成式 AI 的核心機制可以簡要理解為一種機率模型的文字接龍。它根據前面出現的文字,預測下一個最可能出現的字詞,並依機率生成文本。其訓練資料主要來自網路上的海量文本,資料品質會影響模型的生成結果。

生成式 AI 目前應用廣泛,但也存在主要缺點:

  1. 生成結果可能不正確或不合理。為了提升準確性,有技術嘗試讓模型展示「思考過程」,這不僅增加使用者信任度,從技術上也可能提高正確性,因為它增加了內部的運算層數。
  2. 模型通常超大,需要龐大的計算資源和資料進行訓練和部署。這使得只有大型機構有能力從零開始訓練通用模型。

為了解決通用模型無法滿足特定企業需求的問題,發展出了特化技術:

  1. 檢索增強生成 (RAG - Retrieval-Augmented Generation):將通用模型與企業內部的知識庫或文件庫結合。當使用者提問時,模型會先從知識庫中檢索相關資訊,再根據這些資訊生成回答。這適用於企業內部知識管理或輔助客服人員,因為即使模型偶爾生成錯誤,人為把關可降低風險。
  2. 微調 (Fine-tuning):使用企業自身的資料對通用模型的參數進行調整。這能讓模型更深入地理解和適應特定領域或任務。然而,微調是相對複雜且有風險的技術,可能破壞模型原有的通用能力。它比 RAG 更深入地改變模型的內部運作模式。
  3. 模型縮小 (如蒸餾 - Distillation):將一個龐大、訓練好的「教師模型」的知識轉移到一個較小的「學生模型」上訓練。學生模型學習模仿教師模型的輸出(特別是機率分布),從而以較小的規模達到類似的性能。這有助於降低部署成本,使模型更容易在資源有限的環境中運行。

總結來說,選擇適合的 AI 技術(機器學習、深度學習、生成式 AI)取決於任務的類型和處理的資料類型。簡單任務和結構化資料可能用傳統機器學習就足夠且更有效益,殺雞焉用牛刀。處理非結構化資料常需要深度學習,而需要生成豐富內容的則適合生成式 AI。理解這些技術的區別、優勢與局限性,對於企業負責人或決策者在評估和導入 AI 解決方案時至關重要。未來,人類的角色將更側重於領域知識的運用,以指導和評估 AI,並提升軟實力和執行力。