One shot, and without seeing every option.
柏拉圖問蘇格拉底什麼是愛情?
蘇格拉底帶他到麥田前,請摘一株最飽滿的麥穗回來,程中不能回頭走,也不能重複摘。過了半天,他沮喪空手而歸說:原本看見一株不錯的,但因只有一次機會,想再看有沒有更好的,到發現已經走出麥田。
蘇格拉底笑著說:「那就是愛情,愛情是一種理想,而且很容易錯過。」

Jason 發表在 痞客邦 留言(0) 人氣()


【楔子】不為尋覓或等待,只是路過也無妨,或能有單純的相逢及偶遇的美。如鏡花水月
你好
晚上好

Jason 發表在 痞客邦 留言(0) 人氣()

急診隔間傳出固定頻率的機械聲,猜是CPR。我們就在隔間外的外科等著。本想探頭又做罷,心想只是路過。後來領完藥要離開了,一婦人嚎啕大哭從隔間被眾人攙扶出來。一切在混雜忙亂的環境中,似乎都很平常無違和,我們和婦人錯身而過,爸爸似也未感知臨場路過一件消殆。
本著IT工程師的習慣,信手蒐集、分折了牆上揭示板:區域醫院在1個小時有1個3級的送來。3小時有1個要住院的,每天有1個鄰近生死關頭的送到急診。人來人往,萬般如常!每種抽象化和概念化都是對經驗的計量記錄和條理事件的途徑,沒有獨立的「認知」功能。即,抽象化、概念化,是開放通路給經驗上不可企及的實在領域的一種方法。

Jason 發表在 痞客邦 留言(0) 人氣()


有時我會不知道自己在做什麼,或懷疑,都很快能忘懷,或睡一覺後,總能釋懷。一路上,我只想墮落,只想看花。我看你們的道德全偽善媚俗,只是被社會被文化塑造成型而僵化。

Jason 發表在 痞客邦 留言(0) 人氣()


本文整理從 「避險需求」和「實質利率」的觀點;加上「美元指數」、「景氣預期」與金價的消長關係,來研判金價的走勢。
最近一輪黃金價格大漲的主因非 2020 年三月的新冠疫情。而是始於2019 年六月 聯準會 (Fed) 停止升息,Fed 停止升息即暗示:已達貨幣緊縮的極限(不再進一步緊俏),便放緩了金價的壓抑
但Fed 的貨幣政策自 2020 下半年以來,轉為「寬鬆延續、但難更強」。Fed 維持現行寬鬆,靜待美國經濟復甦。這暗示了短期已達貨幣寬鬆的極限(不再進一步寬鬆),導致金價難以上攻

Jason 發表在 痞客邦 留言(0) 人氣()

  • Feb 08 Mon 2021 10:50
  • 彼岸

凝結在記憶之外深遠古老的靈魂
涓滴消融入紅塵
只願一路清澈的奔流
洗滌著翠綠
撥弄過繽紛
映照出湛藍
流浪成嬌媚
獨留一抹秀麗匯集淺彎
慰藉某個天涯旅人
挺進獨行的沈甸,沒入空虛的包覆
緣渡濃情向彼岸,但忘來路和歸途

Jason 發表在 痞客邦 留言(0) 人氣()

  • Feb 08 Mon 2021 10:50
  • 瞬間

一把堅持的鑰匙
開啟歡愉的混沌
無缺而充實圓滿
一回一回堅硬
一回一回溫潤
敞開迎合的包容
專注推敲與律動

Jason 發表在 痞客邦 留言(0) 人氣()

  • Feb 08 Mon 2021 10:47
  • 英雄

而你又該如何稱呼
當世人遺忘了以後
自在遠方沈默的冷峻頑石
自為永恆無悔的鎮山英靈
原來紅塵
歸化時空
路人從無意解開千年的冰封
像從冰箱拉出一條僵硬的魚

Jason 發表在 痞客邦 留言(0) 人氣()

  • Feb 08 Mon 2021 10:45
  • 錯過

每顆心有自己的圓
當我們在時空中滑過時
同時在等待
錯身時不要有表情,不要有情緒
原來
不在一個空間
是不能相交的

Jason 發表在 痞客邦 留言(0) 人氣()

通貨膨脹
通貨膨脹在任何國家的貨幣估值中都起著重要作用。如果日本的通貨膨脹率相對低於其他國家,那麼日本的出口將會增加。購買日本商品的日元需求將會增加。此外,外國商品變得更便宜,因此日本公民最終將支付更少的進口費用。因此,較低的通貨膨脹率往往會導致任何國家的貨幣價值升值。
利率
如果日本的利率相對於其他國家有所增加,那麼在日本投資就會變得很有吸引力。投資者將從日本銀行的儲蓄中獲得更高的回報。因此對日本日元的需求將會上升。較高的利率是對資金流入的升值,這將對該國的當地企業產生負面影響。較高的利率降低了消費者的購買力,而藉款人不得不支付更多的利息。

Jason 發表在 痞客邦 留言(0) 人氣()

 
The Road Not Taken <play>

Jason 發表在 痞客邦 留言(0) 人氣()


Attention Mechanism可以對模型的輸入的每個部分(區域),賦予不同的權重,以抽取出局部關鍵的資訊,使模型做出更精準確的判斷。Attention in deep learning localizes information in making predictions.
Attention Mechanism與人類對外界事物的觀察機制很類似,當人類觀察外界事物的時候,一般不會把事物當成一個整體去看,往往傾向於根據需要選擇性的去獲取被觀察事物的某些重要部分,比如我們看到一個人時,往往先Attention到這個人的臉,然後再把不同區域的資訊組合起來,形成一個對被觀察事物的整體印象。
Attention Mechanism用於提升RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的機制(Mechanism)。Attention Mechanism廣泛應用於機器翻譯、語音識別、影象標註(Image Caption)等很多領域。Attention的成功,是在於賦予了模型區分辨別的能力。

Jason 發表在 痞客邦 留言(0) 人氣()

Blog Stats
⚠️

成人內容提醒

本部落格內容僅限年滿十八歲者瀏覽。
若您未滿十八歲,請立即離開。

已滿十八歲者,亦請勿將內容提供給未成年人士。