1 0:00:00 –> 0:00:02 各位觀眾大家好 我是鍊金Mage
2 0:00:02 –> 0:00:05 那一樣又是一個補錄的週
3 0:00:05 –> 0:00:07 其實應該要在禮拜五去錄
4 0:00:07 –> 0:00:09 但是禮拜五會撞到一個問題就是
5 0:00:09 –> 0:00:13 很專心的在準備鍊金工坊的課程
6 0:00:13 –> 0:00:15 那有沒有可能禮拜四錄呢
7 0:00:15 –> 0:00:17 因為禮拜四的晚上
8 0:00:17 –> 0:00:19 我會先試錄就是為了鍊金工坊
9 0:00:19 –> 0:00:21 會做前一天的試錄
10 0:00:21 –> 0:00:22 那在這種情況下
11 0:00:22 –> 0:00:24 又變成是很難錄了
12 0:00:24 –> 0:00:28 所以變成是不是其實比較好的錄音時間是禮拜三呢
13 0:00:28 –> 0:00:29 呃 不管
14 0:00:29 –> 0:00:32 就是只要想辦法解決這個問題
15 0:00:32 –> 0:00:35 那變成是說因為這兩個禮拜
16 0:00:35 –> 0:00:37 上禮拜的擠到這禮拜嘛
17 0:00:37 –> 0:00:38 那這禮拜又要再出一篇
18 0:00:38 –> 0:00:40 那等等晚一點
19 0:00:40 –> 0:00:42 可能禮拜三的話我馬上會再出
20 0:00:42 –> 0:00:44 明天的 明天可能會出一篇吧
21 0:00:44 –> 0:00:45 再看情況就是
22 0:00:45 –> 0:00:49 要盡可能的讓自己能夠在一週正確的時間內
23 0:00:49 –> 0:00:51 去習慣性去錄Podcast
24 0:00:51 –> 0:00:53 而且還有一個很大的問題是
25 0:00:53 –> 0:00:54 在原子習慣裡面
26 0:00:54 –> 0:00:56 就是沒有一個很明顯的提示
27 0:00:56 –> 0:00:58 讓自己去做這件事情
28 0:00:58 –> 0:01:00 就會很難去進行
29 0:01:00 –> 0:01:01 特別是最近這兩個禮拜
30 0:01:01 –> 0:01:05 就是心情是比較狀態比較差的週次的時候
31 0:01:05 –> 0:01:07 在比較低潮的循環下
32 0:01:07 –> 0:01:09 其實很多事情都會不想做
33 0:01:09 –> 0:01:11 比如說像重量訓練
34 0:01:11 –> 0:01:13 這兩個禮拜也幾乎都沒有去
35 0:01:13 –> 0:01:15 但是會覺得要逐步的讓自己想去
36 0:01:15 –> 0:01:17 那可能會透過
37 0:01:17 –> 0:01:19 比較簡單的提示自己的方式吧
38 0:01:19 –> 0:01:22 比如說先穿上運動的服裝
39 0:01:22 –> 0:01:24 然後出去買午餐
40 0:01:24 –> 0:01:25 然後可能吃個健身餐盒
41 0:01:25 –> 0:01:29 就是慢慢的把自己的生活作息
42 0:01:29 –> 0:01:33 調整回是重訓的那種生活作息的習慣
43 0:01:33 –> 0:01:34 就是不用馬上調整回去沒關係
44 0:01:34 –> 0:01:38 但是就是逐漸的去復原
45 0:01:38 –> 0:01:39 有點類似原子習慣裡面
46 0:01:39 –> 0:01:42 其實要養成一個新的習慣很重要的東西
47 0:01:42 –> 0:01:43 是逐步的加深劑量
48 0:01:43 –> 0:01:46 而不是一次跳過去
49 0:01:46 –> 0:01:48 那不過現在這種感覺
50 0:01:48 –> 0:01:50 反而也會想起一個東西就是
51 0:01:50 –> 0:01:53 我們常常會聽到說什麼習慣是21天養成
52 0:01:54 –> 0:01:55 也就是說
53 0:01:55 –> 0:01:57 當連續21天做同一件事情之後
54 0:01:57 –> 0:01:59 這件事情就會養成習慣
55 0:01:59 –> 0:02:01 那我可以很清楚的理解這件事情
56 0:02:01 –> 0:02:02 就是一個bullshit
57 0:02:02 –> 0:02:06 就是我在之前已經養成了上健身房的習慣
58 0:02:06 –> 0:02:08 然後每天寫文章就是threads
59 0:02:08 –> 0:02:09 然後每天錄Podcast
60 0:02:09 –> 0:02:11 應該有超過一個月了
61 0:02:11 –> 0:02:13 就是遠遠超過21天
62 0:02:13 –> 0:02:14 但實際上
63 0:02:14 –> 0:02:16 一遇到狀態差的週次
64 0:02:16 –> 0:02:17 全部通通都不做了
65 0:02:17 –> 0:02:19 所以那個什麼習慣是21天養成
66 0:02:19 –> 0:02:21 這個一點一點說服力都沒有
67 0:02:22 –> 0:02:24 好 那再來就是
68 0:02:24 –> 0:02:26 可能會漸漸的讓
69 0:02:26 –> 0:02:29 這一個Podcast更轉向專業性一點
70 0:02:29 –> 0:02:32 我會希望它是提供一個有價值的內容
71 0:02:32 –> 0:02:34 那會類似其他的Podcast
72 0:02:34 –> 0:02:37 就是前面可能先先聊一些開場
73 0:02:37 –> 0:02:38 然後先聊一些開場之後
74 0:02:38 –> 0:02:40 再進入正式的主題
75 0:02:40 –> 0:02:42 那正式的主題要聊什麼
76 0:02:42 –> 0:02:44 其實老實說沒有很明確的想要做什麼
77 0:02:44 –> 0:02:47 但是最起碼有一個方向是
78 0:02:47 –> 0:02:51 因為目前鍊金工坊已經上了一定的進度了
79 0:02:51 –> 0:02:52 那其實那個東西可能
80 0:02:52 –> 0:02:55 很有可能可以把它拉來Podcast講
81 0:02:55 –> 0:02:56 就變成是說
82 0:02:56 –> 0:03:00 用比較長的篇幅來讓大家去感受一件事情
83 0:03:00 –> 0:03:02 那會更要是閒聊的狀態
84 0:03:02 –> 0:03:03 就是
85 0:03:03 –> 0:03:06 畢竟 Podcast還是一個
86 0:03:06 –> 0:03:07 偏向一個比較舒服的狀態
87 0:03:07 –> 0:03:13 就是沒有必要說它是一個這麼密集的反應上
88 0:03:13 –> 0:03:15 那還有另一個就是說
89 0:03:15 –> 0:03:20 要漸漸的讓我自己的講話速度有變慢的習慣
90 0:03:20 –> 0:03:25 因為講話快還有一個問題是在Whisper的辨識上
91 0:03:25 –> 0:03:28 它會辨識不到這整句的
92 0:03:28 –> 0:03:30 我覺得它的時間軸會錯誤
93 0:03:30 –> 0:03:32 的原因是因為
94 0:03:32 –> 0:03:34 如果時間軸小於一秒的話
95 0:03:34 –> 0:03:36 字幕檔是無法顯示
96 0:03:36 –> 0:03:41 所以它的句子跟句子之間的最小單位是兩秒
97 0:03:41 –> 0:03:44 可是如果在兩秒之間講了兩句話的話
98 0:03:44 –> 0:03:48 它會先把第一句的時間標了兩秒的時間長
99 0:03:48 –> 0:03:51 然後再把第二句的時間又標了兩秒的時間長
100 0:03:51 –> 0:03:55 會導致它的時間軸就開始標錯了
101 0:03:55 –> 0:03:58 然後連續兩秒兩秒兩秒兩秒
102 0:03:58 –> 0:04:03 直到下一次就是有足夠的間隔它的文字追上了
103 0:04:03 –> 0:04:06 這個情況下字才會接上
104 0:04:06 –> 0:04:12 所以講話過快這件事情其實對於Whisper是非常負面的效果
105 0:04:12 –> 0:04:16 那另外就是我還是要練習自己講話速度變慢的原因就是
106 0:04:16 –> 0:04:17 當講話太快的時候
107 0:04:17 –> 0:04:20 其實大部分的人是無法吸收的
108 0:04:20 –> 0:04:22 就有點類似
109 0:04:22 –> 0:04:23 我也不知道
110 0:04:23 –> 0:04:26 就是其實每個人的思考速度是不一樣的
111 0:04:26 –> 0:04:30 那如果用我的思考速度去解釋我已經知道的事情
112 0:04:30 –> 0:04:33 當然其他人是很難跟上的
113 0:04:33 –> 0:04:36 所以勢必就是要讓速度再放慢一點
114 0:04:36 –> 0:04:38 那這個在文字寫作課的時候
115 0:04:38 –> 0:04:40 其實一開始也遇到這個問題
116 0:04:40 –> 0:04:44 就是我的文字的節奏也是太快了
117 0:04:44 –> 0:04:46 但是實際上一般人在閱讀的時候
118 0:04:46 –> 0:04:48 是要給他一點時間去感受的
119 0:04:48 –> 0:04:50 那我忘記在哪邊看到了
120 0:04:50 –> 0:04:56 就是文字寫作有個重點是你必須要讓人是他在無意識之間
121 0:04:56 –> 0:04:58 譬如說有時候恍神飄個兩秒
122 0:04:58 –> 0:05:00 看看到晚了兩三句
123 0:05:00 –> 0:05:04 他都還可以繼續接著這個句子的思維繼續下去
124 0:05:04 –> 0:05:07 那換句話說就是其實在句子的進行中
125 0:05:07 –> 0:05:10 其實也不能太過的密集區
126 0:05:10 –> 0:05:13 譬如說變換正在討論的概念
127 0:05:13 –> 0:05:17 那可能會用一個比較長的篇幅去解釋一個概念
128 0:05:17 –> 0:05:21 那在這種情況下才能夠讓讀者或者是聽者
129 0:05:21 –> 0:05:24 在即便是中間恍神了一段時間
130 0:05:24 –> 0:05:27 他還有辦法繼續跟上這個話題
131 0:05:27 –> 0:05:30 所以在這種情況下除了講話速度減慢
132 0:05:30 –> 0:05:32 內容的節奏也要再放慢
133 0:05:32 –> 0:05:37 特別是Podcast他本身是一個比較慢
134 0:05:37 –> 0:05:38 比較節奏比較慢的一種思維
135 0:05:38 –> 0:05:41 比如說你可能是邊打掃邊聽
136 0:05:41 –> 0:05:44 比如說可能是邊開車邊聽
137 0:05:44 –> 0:05:46 那在這種情況下
138 0:05:46 –> 0:05:48 當然就不可能是像上課那樣子
139 0:05:48 –> 0:05:52 高效的去做一個知識的輸入或輸出
140 0:05:52 –> 0:05:56 那即便是我的鍊金課程
141 0:05:56 –> 0:05:57 其實在幫大家上課的時候
142 0:05:57 –> 0:06:00 其實有一個很重要的點就是說
143 0:06:00 –> 0:06:02 已經有的概念的人
144 0:06:02 –> 0:06:04 其實往往會忘記沒有這個概念的人
145 0:06:04 –> 0:06:08 是無法理解這件事情的
146 0:06:08 –> 0:06:10 這個其實有點難說明
147 0:06:10 –> 0:06:14 簡單來講就是很多老師會忘記學生聽不懂這件事情
148 0:06:14 –> 0:06:16 其實是學生本來就聽不懂
149 0:06:16 –> 0:06:19 那變成是老師本來就要花很大的篇幅
150 0:06:19 –> 0:06:22 去讓學生去理解這件事情
151 0:06:22 –> 0:06:23 然後要學習一個概念
152 0:06:23 –> 0:06:28 本來就會需要花一個比較長的篇幅去吸收
153 0:06:28 –> 0:06:29 所以呢
154 0:06:29 –> 0:06:33 我在規劃這個鍊金課程的這四堂上面
155 0:06:33 –> 0:06:39 其實有一直盡可能的用比較大的篇幅去解釋一件事情
156 0:06:39 –> 0:06:42 比如說第一堂課在講的是典範轉移
157 0:06:42 –> 0:06:44 那我花了很多的例子
158 0:06:44 –> 0:06:46 比如說舉例了攝影
159 0:06:46 –> 0:06:48 舉例了電影
160 0:06:48 –> 0:06:50 舉例了音樂
161 0:06:50 –> 0:06:51 舉例了繪畫
162 0:06:51 –> 0:06:53 舉例了下棋打牌
163 0:06:53 –> 0:06:54 舉例了各式各樣的例子
164 0:06:54 –> 0:06:58 就是AI造成的典範轉移的思維
165 0:06:58 –> 0:07:00 然後基於這個典範轉移的思維
166 0:07:00 –> 0:07:04 我們要怎麼去思考使用AI這件事情
167 0:07:04 –> 0:07:08 那幾乎第一堂課就是花了很大的篇幅
168 0:07:08 –> 0:07:11 再讓大家去感受到典範轉移這件事情
169 0:07:11 –> 0:07:15 比如說我們以前是要去圖書館查資料
170 0:07:15 –> 0:07:18 那有了Google之後我們變成是搜尋資料
171 0:07:18 –> 0:07:25 所以我們從獲取訊息變成搜尋訊息
172 0:07:25 –> 0:07:30 然後我們要用我們的知識去判斷這個訊息的Quality
173 0:07:30 –> 0:07:35 那到了AI時代變成是我們其實不再需要使用Google去搜尋那些知識了
174 0:07:35 –> 0:07:38 我們甚至AI本身就具備知識
175 0:07:38 –> 0:07:40 所以到了AI時代
176 0:07:40 –> 0:07:44 我們應該要用我們的經驗Apply on AI獲取的知識
177 0:07:44 –> 0:07:47 就是有點類似我們在Google時代Apply我們的知識
178 0:07:47 –> 0:07:51 在這些搜尋到的凌亂訊息上面
179 0:07:51 –> 0:07:52 那如果在古代的話
180 0:07:52 –> 0:07:58 就是我們要Apply我們知道的訊息去查找訊息之類的
181 0:07:58 –> 0:07:59 所以呢
182 0:07:59 –> 0:08:03 在Google時代的重點是使用關鍵字去獲取關鍵字
183 0:08:03 –> 0:08:04 去達到高效的搜尋
184 0:08:04 –> 0:08:06 搜到自己要的東西
185 0:08:06 –> 0:08:11 那麼在AI時代就是用知識去搜尋知識找到自己要的東西
186 0:08:11 –> 0:08:14 而且它直接是應用層級的知識
187 0:08:14 –> 0:08:16 那在這種情況下
188 0:08:16 –> 0:08:18 其實經驗就很重要了
189 0:08:18 –> 0:08:20 因為AI它目前還沒有經驗
190 0:08:20 –> 0:08:22 未來可能會有
191 0:08:22 –> 0:08:27 但是至少現階段的AI還是很仰賴使用者本身要有經驗
192 0:08:27 –> 0:08:29 而且或許即便AI更強了
193 0:08:29 –> 0:08:32 其實使用者本身還是要有經驗
194 0:08:32 –> 0:08:36 那這個就是第一堂課其實有一個舉例是Money XYZ的影片
195 0:08:36 –> 0:08:40 就是如何用AI讓自己開掛的那部影片
196 0:08:40 –> 0:08:43 最重要的概念就是
197 0:08:43 –> 0:08:46 即便也不知道它裡面講了很多概念
198 0:08:46 –> 0:08:48 其中一個概念是
199 0:08:48 –> 0:08:52 就是說就是如果我們今天要Sora做一個好萊塢等級的大片
200 0:08:52 –> 0:08:53 那會遇到一個問題
201 0:08:53 –> 0:08:56 就是當你的審美不夠的時候
202 0:08:56 –> 0:08:59 即便AI做了一個超越人類時代的大片
203 0:08:59 –> 0:09:02 你也看不懂你會覺得它是垃圾
204 0:09:02 –> 0:09:05 那你也沒辦法收穫AI產生的東西
205 0:09:05 –> 0:09:10 所以個人的經驗能力其實就非常重要了
206 0:09:10 –> 0:09:11 那知識這件事情
207 0:09:11 –> 0:09:12 因為AI可以處理了
208 0:09:12 –> 0:09:18 所以會覺得下一個時代或許真正的重點是在實作經驗上
209 0:09:18 –> 0:09:19 就是如何去
210 0:09:19 –> 0:09:22 比如說在畫畫上
211 0:09:22 –> 0:09:24 的審美其實是最重要的
212 0:09:24 –> 0:09:26 其實我們畫畫學了這麼久
213 0:09:26 –> 0:09:30 這一根就底就是要把我們心中的審美去畫出來
214 0:09:30 –> 0:09:32 但是如果我們可以跳過畫畫這一步
215 0:09:32 –> 0:09:34 直接應用了我們的審美
216 0:09:34 –> 0:09:40 那就是省去了那些耗費耗時耗力
217 0:09:40 –> 0:09:44 就是消磨很多人心智的學習畫畫的過程
218 0:09:44 –> 0:09:46 那但是這會有一個
219 0:09:46 –> 0:09:49 目前其實這根當初
220 0:09:49 –> 0:09:51 其實一直以來AI的演進
221 0:09:51 –> 0:09:55 就是可以看當初圍棋世界是怎麼演進的
222 0:09:55 –> 0:09:57 我們就可以知道現在是怎麼演進的
223 0:09:57 –> 0:10:00 比如說當初Alphago剛出來的時候
224 0:10:00 –> 0:10:02 職業棋手其實是不認同AI的
225 0:10:02 –> 0:10:04 但是過了這麼多年之後
226 0:10:04 –> 0:10:06 現在職業棋手使用AI研究
227 0:10:06 –> 0:10:10 使用AI下棋是一件理所當然的事情
228 0:10:10 –> 0:10:11 那畫畫也是嘛
229 0:10:11 –> 0:10:14 剛出來的時候大家就是反對AI嗎
230 0:10:14 –> 0:10:18 但是到現在其實已經有很大的一批繪師
231 0:10:18 –> 0:10:23 他在使用AI去輔助作畫上是一件很理所當然的事情了
232 0:10:23 –> 0:10:25 那當然還有一些人他是還不能接受
233 0:10:25 –> 0:10:29 那這件事情其實隨著時代的前進
234 0:10:29 –> 0:10:34 勢必所有人跟AI協作會是一個跟呼吸一樣的事情
235 0:10:34 –> 0:10:37 那特別是新生代的小朋友
236 0:10:37 –> 0:10:41 就是那些後面才出生的小孩
237 0:10:41 –> 0:10:45 他們的眼睛張開的世界就已經是AI存在了
238 0:10:45 –> 0:10:48 所以理所當然的他們就是使用AI嘛
239 0:10:48 –> 0:10:50 所以這時候就會有一個最有趣的一句話
240 0:10:50 –> 0:10:53 就是說你是要當使用
241 0:10:53 –> 0:10:55 你是要當最後一批不使用AI的人
242 0:10:55 –> 0:10:57 還是要當第一批使用AI的人
243 0:10:57 –> 0:10:59 這個問題是不會有人答錯的
244 0:10:59 –> 0:11:00 這樣子
245 0:11:02 –> 0:11:04 對那會比較傾向就是
246 0:11:04 –> 0:11:06 這個Podcast可能會以這種形式吧
247 0:11:06 –> 0:11:13 比如說以閒聊的形式去慢慢去闡述一些AI時代的觀念嗎
248 0:11:13 –> 0:11:16 那還有一個好處是說因為我已經有寫書了
249 0:11:16 –> 0:11:20 那我的書裡面的章節其實是寫蠻多的
250 0:11:20 –> 0:11:23 那其實就很適合每個禮拜把它抓出來來講
251 0:11:23 –> 0:11:24 這樣子
252 0:11:26 –> 0:11:31 那這個是屬於這禮拜的專有名詞的部分
253 0:11:31 –> 0:11:33 就是典範轉移這個概念
254 0:11:33 –> 0:11:37 那下禮拜的話可能就會往鍊金第二堂課的重點
255 0:11:37 –> 0:11:42 應該是在節點切分的概念上去進行
256 0:11:42 –> 0:11:46 那後半場的話就是在聊說我平常在思考創業的方向
257 0:11:46 –> 0:11:48 畢竟從離職這麼久以來
258 0:11:48 –> 0:11:51 我都一直要在思考說未來是長什麼樣子
259 0:11:51 –> 0:11:53 然後要去往那邊走
260 0:11:53 –> 0:11:59 那一個再想法就是說如果AI是一個未來的話
261 0:11:59 –> 0:12:04 那未來的所有的application或者是甚至是platform
262 0:12:04 –> 0:12:07 或者是像什麼我聽到的什麼SaaS
263 0:12:07 –> 0:12:12 那未來會不會是AAAS就是AI是Service
264 0:12:12 –> 0:12:15 它是一個最基礎的設施
265 0:12:15 –> 0:12:21 那比如說像現在的AR、VR的頭盔其實是不被看好的
266 0:12:21 –> 0:12:23 那會不會其實跟AI結合之後
267 0:12:23 –> 0:12:26 它就變成是一個更好用的東西
268 0:12:26 –> 0:12:30 因為現在AI頭盔比如說它在辦公上面有那麼方便
269 0:12:30 –> 0:12:31 那它包含幾個原因
270 0:12:31 –> 0:12:35 第一個是它的鍵盤輸入其實很難鍵盤輸入
271 0:12:35 –> 0:12:37 可是如果我們是用語音輸入
272 0:12:37 –> 0:12:40 比如說我今天是在VR世界裡面用講話的
273 0:12:40 –> 0:12:44 然後AI語音辨識就可以開始做事情了
274 0:12:44 –> 0:12:46 比如就有點類似林亦最近的影片
275 0:12:46 –> 0:12:51 就是它在筆電上製作了一個AI助理
276 0:12:51 –> 0:12:54 那就是比如說叫他幫我開啟查詢今天的天氣
277 0:12:54 –> 0:12:56 然後AI就去查詢今天的天氣
278 0:12:56 –> 0:13:00 好那我們在有鍵盤滑鼠的時代
279 0:13:00 –> 0:13:01 這件事情反而是慢的
280 0:13:01 –> 0:13:03 因為我不需要講話
281 0:13:03 –> 0:13:06 我只要直接開啟瀏覽器搜尋就可以了
282 0:13:06 –> 0:13:08 可是如果我今天是透過講話的話
283 0:13:08 –> 0:13:11 變成是我要先跟AI講這句話
284 0:13:11 –> 0:13:14 然後AI再去執行搜尋這件事情
285 0:13:14 –> 0:13:16 它多了一個步驟
286 0:13:16 –> 0:13:19 可是如果我們進到VR的世界就完全不一樣了
287 0:13:19 –> 0:13:21 因為我們在VR的世界裡面
288 0:13:21 –> 0:13:23 操作鍵盤滑鼠是很不方便的
289 0:13:23 –> 0:13:26 在這種交互式體驗下
290 0:13:26 –> 0:13:30 其實在AI的互動上就反而變得非常輕鬆了
291 0:13:30 –> 0:13:31 因為我只要用講話
292 0:13:31 –> 0:13:34 我就可以在VR世界裡做非常多事情
293 0:13:34 –> 0:13:35 所以或許有沒有可能
294 0:13:35 –> 0:13:39 其實現在的AR、VR不好用
295 0:13:39 –> 0:13:42 反而會被AI打開了這一扇門
296 0:13:42 –> 0:13:45 特別是當AI助理那些AI agent
297 0:13:45 –> 0:13:47 成為一個理所當然的存在的時候
298 0:13:47 –> 0:13:52 大家在使用AR上會超容易的
299 0:13:52 –> 0:13:55 那這個時候就牽涉到一個隱私問題
300 0:13:55 –> 0:14:00 就是目前的LLM都是在那些大公司的server上面
301 0:14:00 –> 0:14:03 那我們會不希望我們的個人隱私資料
302 0:14:03 –> 0:14:05 是被那些大公司所看到
303 0:14:05 –> 0:14:07 那這個時候在local端
304 0:14:07 –> 0:14:10 持有自己的LLM就非常重要了
305 0:14:10 –> 0:14:14 但是AR頭盔本身因為重量的需求
306 0:14:14 –> 0:14:17 因為它的攜帶性的需求
307 0:14:17 –> 0:14:20 它不可能在上面放大型的運算的資源
308 0:14:20 –> 0:14:24 就是它的運算資源就是跟手機是同等級的
309 0:14:24 –> 0:14:28 那如果我們想要在頭盔上去進行
310 0:14:28 –> 0:14:31 比如說邊緣裝置的AI運算
311 0:14:31 –> 0:14:33 這個設備幾乎就是不可能
312 0:14:33 –> 0:14:34 但是有一種可能是不是
313 0:14:34 –> 0:14:36 比如說我在我的房間
314 0:14:36 –> 0:14:38 每個人在自己的桌上
315 0:14:38 –> 0:14:41 架設自己的PC AI
316 0:14:41 –> 0:14:42 那在這個PC AI上
317 0:14:42 –> 0:14:46 它就是一個server去跑AI的服務
318 0:14:46 –> 0:14:46 然後呢
319 0:14:46 –> 0:14:49 它是用雲端串流的方式
320 0:14:49 –> 0:14:53 跟我們的頭盔做連結
321 0:14:53 –> 0:14:54 所以變成是說
322 0:14:54 –> 0:14:55 如果我今天講一句話
323 0:14:55 –> 0:14:57 幫我查詢天氣
324 0:14:57 –> 0:14:59 這件事情其實是頭盔錄音之後
325 0:14:59 –> 0:15:02 它把這個音檔傳到我們的local PC上面
326 0:15:02 –> 0:15:04 然後這個local PC
327 0:15:04 –> 0:15:05 它有我自己的語音轉
328 0:15:05 –> 0:15:07 比如說語音轉文字AI
329 0:15:07 –> 0:15:09 或者是直接就是多模態
330 0:15:09 –> 0:15:10 那多模態的話
331 0:15:10 –> 0:15:12 它就指導說要去搜尋天氣
332 0:15:12 –> 0:15:13 然後它搜尋完天氣之後
333 0:15:13 –> 0:15:16 顯示在local PC上
334 0:15:16 –> 0:15:19 但是因為local PC跟我的VR是連線的
335 0:15:19 –> 0:15:23 我的VR可以直接看到local PC上的螢幕
336 0:15:23 –> 0:15:24 那在這種情況下
337 0:15:24 –> 0:15:27 就有點類似林亦之前它的
338 0:15:27 –> 0:15:29 有一個影片是在說
339 0:15:29 –> 0:15:34 電競筆電其實是一個很彆扭的東西
340 0:15:34 –> 0:15:37 就是因為它的效能不如PC
341 0:15:37 –> 0:15:41 然後它的攜帶性又不如商務筆電薄
342 0:15:41 –> 0:15:43 因為電競筆電它終究還是需要一個
343 0:15:43 –> 0:15:46 比較大的體積去放一些比較強的算力
344 0:15:46 –> 0:15:49 那相比於就是商務筆電
345 0:15:49 –> 0:15:51 商務筆電更薄更輕
346 0:15:51 –> 0:15:52 它的攜帶性更強
347 0:15:52 –> 0:15:53 那相比來講的話
348 0:15:53 –> 0:15:56 電競筆電就是一個它不夠輕薄
349 0:15:56 –> 0:15:59 然後算力又不夠強的很尷尬的位置
350 0:15:59 –> 0:16:01 但是如果我們可以在串流
351 0:16:01 –> 0:16:03 在使用串流上
352 0:16:03 –> 0:16:04 比如說串流遊戲
353 0:16:04 –> 0:16:08 那是不是我們就是可以用電競筆電
354 0:16:08 –> 0:16:08 就不需要了
355 0:16:08 –> 0:16:10 我們就是用商務筆電
356 0:16:10 –> 0:16:14 然後串流到我們自己的PC上面去玩遊戲
357 0:16:14 –> 0:16:15 那在這種情況下
358 0:16:15 –> 0:16:19 我們就解決了就是攜帶性算力不夠強的問題
359 0:16:19 –> 0:16:22 那剛剛講的VR跟電腦的溝通
360 0:16:22 –> 0:16:27 或者是這種商務筆電跟遊戲主機的溝通
361 0:16:27 –> 0:16:31 其實都會非常重要的一件事情就是低延遲
362 0:16:31 –> 0:16:33 那低延遲的話也就只有5G才有做得到
363 0:16:33 –> 0:16:36 因為5G的規格就是低延遲
364 0:16:36 –> 0:16:38 所以在這個脈絡下
365 0:16:38 –> 0:16:41 是不是其實未來的基礎設施
366 0:16:41 –> 0:16:44 反而還是非常仰賴5G的需求
367 0:16:44 –> 0:16:45 特別是剛剛說的
368 0:16:45 –> 0:16:46 如果我們人是在戶外
369 0:16:46 –> 0:16:49 我要連線回我自己的電腦的時候
370 0:16:49 –> 0:16:52 然後再加上通常會為了安全性
371 0:16:52 –> 0:16:54 可能還會做一些加密協定
372 0:16:54 –> 0:16:55 那這種情況下
373 0:16:55 –> 0:16:57 速度又會再拖慢一點的話
374 0:16:57 –> 0:16:59 那麼低延遲的5G就變得是
375 0:16:59 –> 0:17:02 非存在不可的理由了
376 0:17:02 –> 0:17:05 對這個是我目前在對未來想的
377 0:17:05 –> 0:17:07 所以我最近在想的事情就是
378 0:17:07 –> 0:17:11 我想要買一台PC是可以運算LLM的
379 0:17:11 –> 0:17:14 然後想要再去搞一顆頭盔來
380 0:17:14 –> 0:17:17 然後讓這個PC執行的內容
381 0:17:17 –> 0:17:20 是串流到頭盔上面的這樣子
382 0:17:20 –> 0:17:24 好那這禮拜的想法就先這個樣子
383 0:17:24 –> 0:17:24 那謝謝大家
384 0:17:24 –> 0:17:26 我之後會再陸續更新