快訊!我的新書登上天瓏網路書店11月份暢銷榜第一名啦!看過的都說讚!歡迎大家前往訂購!

 >>>> AI 職場超神助手:ChatGPT 與生成式 AI 一鍵搞定工作難題 <<<<

  • ,

    WebCodecs + WebGPU:開啟個人化串流新視界

    活動資訊 https://gdg.community.dev/events/details/google-gdg-taipei-presents-devfest-taipei-2024/cohost-gdg-taipei 講題介紹 分享投影片 活動剪影

    Continue Reading…: WebCodecs + WebGPU:開啟個人化串流新視界

  • ,

    OpenAI的模型微調過程

    參考資料 Real-World Example: Building a Fine-Tuned Model with OpenAI:https://medium.com/gptalk/real-world-example-building-a-fine-tuned-model-with-openai-58a0557143af Fine-tuning with OpenAI:https://medium.com/@j622amilah/fine-tuning-with-openai-624a6055517d 官方教學:https://platform.openai.com/docs/guides/fine-tuning#fine-tuning-examples 準備資料的方向 我們可以用微調來調整機器人有一致的回覆口吻和邏輯,或針對特定任務來加強模型的能力,例如生成問題、回答細化,到分類、摘要生成和結構化標記 1. 生成問題 任務目標:根據提供的文本生成可能的相關問題。 2. 細化回答 任務目標:根據問題生成多種類型的回答(簡潔、詳細、多角度)。 3. 分類 任務目標:將文本分配至特定的類別(如情感分類或主題分類)。 情感分類範例 主題分類範例 4. 摘要 任務目標:從提供的文本中生成簡短的摘要。 5. 特定任務的結構化標記 任務目標:從文本中提取關鍵實體並將其標記為結構化數據。 命名實體識別(NER)範例 結構化數據抽取範例 執行範例 如果我期待機器人可以更深入的理解法條 例如下面的資料 【衛生福利部】衛生福利部急難救助金申請審核及撥款作業規定 一、急難救助對象: (一)戶內人口死亡無力殮葬者。…

    Continue Reading…: OpenAI的模型微調過程

  • ,

    LLM模型的微調

    參考資料 《Ultimate Guide to Fine-Tuning LLMs》詳盡探討了 LLM 微調的流程、進階技術與實際應用,提供了全面的指導與範例! https://claire-chang.com/wp-content/uploads/2024/11/2408.13296v1.pdf 微調(Fine-tuning)是甚麼 微調(Fine-tuning)是一種在現有的預訓練模型基礎上,針對特定任務進行額外訓練的技術。以下是其核心概念與應用: 微調 LLM 的重要性 微調 LLM(大語言模型)的重要性主要體現在以下幾個關鍵方面: 1. 遷移學習 2. 減少數據需求 3. 改進泛化能力 RAG 和微調該選擇哪個? 1. 外部數據訪問的需求 2. 抑制幻覺與準確性 3. 訓練數據的可用性 4. 數據更新頻率 5. 可解釋性與透明度 決策指南 因素 RAG 的優勢 微調的優勢 外部數據訪問需求 動態檢索外部數據,適用於即時資訊 不適合 抑制幻覺與準確性…

    Continue Reading…: LLM模型的微調

  • ,

    吳恩達:前瞻 AI Agents,顛覆未來想像

    影片介紹 應專注於構建現在可以實現的應用 AI 技術堆疊(AI stack)的理解如下圖,最下面是半導體技術,接著雲端層、基礎模型層 吳恩達認為:對於台灣的許多企業而言,最好的機會是專注於構建現在可以實現的應用 而AI 代理工作流程則是能夠讓應用更加聰明的關鍵 代理式 AI 系統如何運作 越來越多的團隊在實施不止一個單一的代理,而是建立多個 AI 代理的協作系統。 「管理者思維」的設計模式 類似於管理者僱用多名員工來完成不同的任務。例如,你可以設計三到四個 AI 代理,分別負責程式碼撰寫、行銷設計或其他專業領域的工作,然後讓它們彼此協作。 當前 AI 領域的其他五個重要趨勢 半導體領域的發展對應用層很重要 從 AI 模型訓練到部署的時間大幅縮短。以前從數據收集、模型訓練到部署可能需要 6 到 12 個月,而現在透過語言模型的提示工程(Prompt Engineering),許多原本需要半年開發的原型,只需 10 天就能完成。 文本處理革命已經發生,而影像處理革命即將發生 由於傳輸數據的成本和技術瓶頸大幅降低,而數據處理成本(特別是 AI 處理)仍然昂貴,企業開始傾向於將數據分散到不同的地方,根據需要傳輸和處理數據。 非結構化數據的工程化管理。過去,企業主要處理結構化數據,例如表格和數字。但現在隨著 AI 現在能更好地理解文本、圖片和音訊,更多的數據工程需要集中在如何使公司為這些非結構化數據做好 AI…

    Continue Reading…: 吳恩達:前瞻 AI Agents,顛覆未來想像

  • ,

    閱讀論文的好幫手們!

    SciSpace – 專注於科學PDF文件的AI聊天平台 官方網站:https://typeset.io/ai-writer Typeset.io(現稱為SciSpace)是一個專注於科學PDF文件的AI聊天平台。以下是該網站的一些主要功能: 可以使用的用途: 參考介紹文章:https://www.playpcesor.com/2023/12/scispace-ai-research-assistant.html Scopus AI 官方網站:https://elsevier.libguides.com/Scopus/ScopusAI Scopus AI 是由 Elsevier 開發的一款基於生成式人工智慧(GenAI)的智能搜索工具,旨在提升學術研究的效率和準確性。以下是 Scopus AI 的主要功能和特點: Copilot 同時使用關鍵字和向量搜尋工具,採用更多、更多樣化的搜尋技術來更好地處理專業查詢並提供更具體的回應。 Copilot 的工作原理如下:Copilot 查看查詢的內容並決定是否要執行 aand/or、向量搜尋、關鍵字搜索,然後確保複雜的查詢被分解為其組成部分;例如,對於關鍵字搜索,它添加了布林運算符,針對它選擇使用的搜尋管道進行了優化,這樣做時,它比之前的搜尋考慮了更多的抽象內容,因此,Copilot 可以分解更複雜的內容查詢其各個組件並針對向量或關鍵字搜尋優化每個元素。 Google Scholar Google Scholar(谷歌學術搜尋)是一個免費的學術搜索引擎,旨在幫助用戶查找學術文獻、論文、書籍、會議論文和專利等。以下是 Google Scholar 的主要功能和特點: 主要功能 使用場景 Consensus GPT 官方網站:https://chatgpt.com/g/g-bo0FiWLY7-consensus Consensus GPT 是由…

    Continue Reading…: 閱讀論文的好幫手們!

  • ,

    生成式AI 職場應用全揭秘 – 開啟你職涯的無限可能

    活動連結 《AI Frontiers Webinar》https://www.aiatw.org/post/ai-frontiers-webinar-20241124 本書登上天瓏書局11月份暢銷榜第一名喔! 活動簡介 想要成為職場贏家嗎?生成式AI 就是你的秘密武器。 Claire將分享她如何利用AI克服瓶頸,創造職涯新的可能性。她亦訪談了多位不同領域的專家,從多樣化的角度分享如何在各行業中,利用生成式AI來提升工作效率。透過這場分享,你將獲得最真實、最新且全面的實戰經驗談,拓展你在職涯發展上的無限可能。 分享內容錄影 活動分享簡報

    Continue Reading…: 生成式AI 職場應用全揭秘 – 開啟你職涯的無限可能

  • ,

    在Dify內整合LangSmith

    使用 LangSmith 和 Langfuse 增強 Dify 上 LLM 的可觀察性 參考文章:https://dify.ai/blog/dify-integrates-langsmith-langfuse Dify 現在支持使用 LangSmith 和 Langfuse 這兩款工具來詳細追蹤和分析 LLM 應用的數據。這些工具使得選擇合適的模型、創建有效的提示、監控應用性能、持續改進應用以及成本優化變得更加容易。 LangSmith 介紹 官方網站:https://www.langchain.com/langsmith LangSmith 的主要目的是提升 LLM 應用的可觀察性和性能,適合需要深入監控和評估模型表現的開發者。LangSmith 是由 LangChain 開發的一款工具,專門用於協助開發者在生產環境中更有效地管理和監控大型語言模型 (LLM) 應用程式。它提供了一套完整的工具,涵蓋了從模型開發、測試到部署的整個生命週期。 LangSmith 的主要功能 如何與 Dify 串接? 在 Dify 中使用 LangSmith 和 Langfuse…

    Continue Reading…: 在Dify內整合LangSmith

  • ,

    ReAct Prompting

    什麼是ReAct 論文網址:https://arxiv.org/abs/2210.03629 ReAct Prompting 是一種結合了推理(Reasoning)和行動(Acting)的提示策略,旨在提升語言模型的推理能力和任務處理的靈活性。這種方法特別適合於需要多步推理的情境,讓模型不僅能回答問題,還能在每個步驟中進行推理、執行動作並根據回饋來調整答案。 ReAct Prompting 的核心概念 運作流程 ReAct Prompting 的過程可以分為以下幾個步驟: ReAct Prompting 的優勢 應用場景 實際範例 假設問題是:「找出哪位科學家首次提出光速的概念,並描述他的研究貢獻。」 Step 1(推理):模型認為首先需要查詢有關「光速概念的歷史背景」。 Step 2(行動):模型查詢資料庫,得到早期研究光速的科學家名單,包括伽利略、牛頓等。 Step 3(推理):模型分析這些科學家的貢獻,並找到提出光速具體數值的第一位科學家。 Step 4(行動):模型查詢更多有關這位科學家的研究,得到其具體貢獻。 Step 5(最終回答):模型將所有資訊彙整並給出答案,描述該科學家如何提出光速的概念及其相關研究。 之前的相關介紹

    Continue Reading…: ReAct Prompting

  • Graph RAG的Node Embeddings 技術

    什麼是Node Embeddings 參考資料: https://memgraph.com/blog/introduction-to-node-embedding 圖(graphs)的基本組成,即節點(nodes)和邊(edges),並以社交網絡為例說明了它們在現實世界中的應用。而節點嵌入就是把圖中的每個節點轉換成一個向量,這些向量位於 N 維空間中(例如 2 維、3 維,或更高維度),這樣每個節點在空間中都有一個特定的位置。 將節點嵌入空間後,圖中的結構關係會變得更容易理解。舉例來說,如果把節點嵌入到 2 維空間,圖中的「群體」或「社群」結構會以集群的形式顯現出來,人類可以在 2 維圖像中直觀地看出哪些節點是相似的。對於電腦而言,節點嵌入轉化為數字向量,這樣它們之間的距離和相似性就可以通過向量計算來衡量。例如,我們可以使用「餘弦相似度」來比較兩個節點之間的相似性,這樣的計算比直接在原始圖結構上進行複雜得多的計算(如最短路徑)更簡單。 節點嵌入算法是一種將圖中節點映射到低維空間的技術,生成的低維向量(稱為嵌入)保留了節點在圖中的結構信息和屬性。這些向量可以作為機器學習模型的輸入,用於各種任務,如節點分類、鏈接預測和構建 k – 最近鄰居(kNN)相似性圖。 嵌入向量捕捉了節點的特性,使得即使在圖中沒有直接連接的節點也能進行有效的比較和分析。我們可以用嵌入向量來計算節點之間的距離或相似度,並且根據這些距離來衡量兩個節點的「接近程度」。隨著節點數量的增多(例如 1000 個節點),僅通過圖結構來判斷節點的關係會變得更加困難,但嵌入能在高維空間中有效地表示圖的結構,讓電腦能夠更輕鬆地處理大規模圖資料。 至於要如何定義 node similarity 呢?例如有連結的 nodes、有共同的鄰居,或是有類似的結構,都可以當成判斷相似程度的指標。 Neo4j 提供的Node Embeddings 技術 參考資料: https://neo4j.com/docs/graph-data-science/current/machine-learning/node-embeddings/ 這篇文章介紹了在Graph Data Science 領域中使用的 Node Embeddings 技術。這些算法能夠將圖中的節點轉換為向量形式,以便用於後續的機器學習任務。Neo4j…

    Continue Reading…: Graph RAG的Node Embeddings 技術

  • RAG Parallel Queries

    RAG Parallel Queries是什麼? RAG(Retrieval Augmented Generation)是一種結合了搜尋和生成能力的人工智慧技術。簡單來說,就是當你向RAG模型提出一個問題時,它會先去搜尋相關的資料,然後再根據這些資料生成一個最符合問題的答案。 而Parallel Queries則是RAG的一種執行方式,它允許模型同時向多個數據源發出查詢請求,並並行處理這些請求的結果。這就像我們同時在多個搜索引擎上搜索一樣,可以大大提高找到相關資訊的效率。 這種模式是基於使用原始查詢來生成多個 “相似” 的子查詢,這些子查詢可以被用來增強查詢的上下文,從而提高原始查詢的信息檢索效果。 系統會針對相似但略有不同的查詢進行多次獨立的檢索,並行處理各個查詢的結果,並將相關資訊聚合展示,方便使用者快速比較和選擇不同來源的答案。 RAG Parallel Queries的優點 RAG Parallel Queries的工作流程 分解的實現方法1 – 每個子查詢的結果視為新的查詢「上下文」 將子查詢和相應的答案,以及原始查詢本身的檢索,作為查詢的“上下文”。這類似於 多查詢檢索,但不同之處在於我們跳過檢索細節,直接在更高的層次上討論 https://teetracker.medium.com/langchain-llama-index-rag-with-multi-query-retrieval-4e7df1a62f83 將原始查詢和每個子查詢的結果視為新的查詢「上下文」,進行更高層次的查詢和生成。這種方法類似於「多查詢檢索」(Multi-Query Retrieval),但跳過了檢索過程中的細節,而是將重點放在更高層次的資訊整合和討論上。以下是詳細解釋: 方法概述 實際範例 假設用戶的原始查詢是:「如何在大型組織中實施遠端工作政策?」 這樣一來,用戶得到的是一個完整的、全局性的答案,而不是單獨呈現每個子查詢的答案。這種方法更適合處理需要綜合理解的問題。 分解的實現分法2 – Prio-reasoning 另一種方法是類似於 Prio-reasoning,每個子查詢的結果會被存儲在一個 “記憶” 中,並且每個子查詢的問題不僅基於自己的檢索結果,還基於之前子查詢的結果。 MultiStepQueryEngine 的 Llama-Index 也是一種“Prio-reasoning”實現 https://teetracker.medium.com/prio-reasoning-919fd6e90d86 在 Prio-reasoning…

    Continue Reading…: RAG Parallel Queries


17年資歷女工程師,專精於動畫、影像辨識以及即時串流程式開發。經常組織活動,邀請優秀的女性分享她們的技術專長,並在眾多場合分享自己的技術知識,也活躍於非營利組織,辦理活動來支持特殊兒及其家庭。期待用技術改變世界。

如果你認同我或想支持我的努力,歡迎請我喝一杯咖啡!讓我更有動力分享知識!