I'm a mother of two precious kids and a professional programmer.
我的新書AI 職場超神助手:ChatGPT 與生成式 AI 一鍵搞定工作難題的教材投影片已製作完成
歡迎各位有需要的教師和博碩文化索取教材
Coze是甚麼 Coze是ByteDance出來的一個AI聊天機器人開發平台,讓你不會寫程式也能建立自己的AI聊天機器人,在這個平台可以用拖拉的方式來完成創建、設定、發布、管理專屬於你的聊天機器人功能,並與多種平台如Line、Slack、Telegram等整合。這平台支持各種AI應用,像是客服、資訊助手或是其他智能工具。 官方網站:https://www.coze.com/home Coze的主要優勢 其主要優勢如下: 可以直接詢問機器人如何使用Coze 在登入之後,Home這邊會有一個Coze的專屬客服機器人,透過詢問機器人問題,可以請機器人幫我們搜尋教學文檔。 創建步驟詳細圖文教學 最主要要創建自己的客服機器人我們可以按下左側的Personal進入創建介面: Coze的個人區域允許用戶管理他們的機器人、插件、工作流程、知識庫,以及其他個人化設定。這個區域有幾個主要標籤: 例如透過以下Workflows創建範例就可以建立一個可以回覆我的相關背景資訊的客服機器人: 上圖的工作流程包括了幾個主要的步驟和節點,來處理和回答用戶的輸入。 整個工作流程通過這些互相連接的節點來自動化處理用戶輸入,生成並提供相關的回答。這種設計允許機器人以高效且靈活的方式回應用戶,並可以根據需要輕鬆地修改或擴展其功能。 這樣的對話機器人可以直接經由簡單設定發佈到Coze Bot Store、Cici、Discord、Telegram、Messenger、LINE、Instagram、Slack、Lark和WhatsApp多種平台。 下面為一個使用範例: Coze要如何收費? Coze提供多種收費方案,根據不同用戶的需求,從免費到高級的付費方案都有。收費方案大約有以下幾種: 各個方案都提供不同的AI模型使用權限,例如GPT-3.5、Gemini 1.5 Flash、Claude 3 Haiku等,並根據模型的收取不同的信息額度。例如,使用GPT-40 mini會消耗比GPT-3.5更多的額度。…
探索ControlNet如何革新Stable Diffusion的圖像生成過程。學習姿勢控制、線稿生成、深度圖應用等技術,掌握AI圖像創作的新境界。深入了解ControlNet在Stable Diffusion中的應用,掌握AI圖像生成的精確控制技巧。本文詳細介紹ControlNet模型類型、使用方法與調參技巧。
無法載入ControlNet 錯誤訊息如下: *** Error loading script: face_manipulation_extras.pyTraceback (most recent call last):File “C:\Users\clairechang\stable-diffusion-webui-master\modules\scripts.py”, line 515, in load_scriptsscript_module = script_loading.load_module(scriptfile.path)File “C:\Users\clairechang\stable-diffusion-webui-master\modules\script_loading.py”, line 13, in load_modulemodule_spec.loader.exec_module(module)File “”, line…
官方網站 https://stability.ai 可看見現在這個平台所提供的相關工具包括: 圖像生成、影像生成、音樂生成、3D模型生成、文字生成 開源社群 https://civitai.com 可下載許多人自己生成的模型和相關微調模型,還有許多澀澀的(?)圖片 主要功能 – 圖像生成 根據文本生成圖像 創意生成 圖像生成使用模型為: SD1.x, SD2.x, SDXL SDXL 是目前 Stable Diffusion 系列中最新的模型之一。它在 SD2.x 的基礎上進一步提升了圖像的品質和細節,尤其是在處理複雜的場景和人物時表現更加出色。SDXL 還能夠生成更加多樣化的圖像風格,為用戶提供了更多的創作可能性。 更多資訊: https://chrislee0728.medium.com/stable-diffusion-xl-%E8%AA%AA%E6%98%8E%E5%8F%8A-sdxl1-0-%E5%AE%89%E8%A3%9D%E6%95%99%E5%AD%B8-b2f7648d49ff…
探索Kling這款革命性的AI影片生成工具,它能將文本轉換成高質量的影片。本文深入介紹Kling的核心功能、使用方法和應用場景,展示如何利用大型語言模型技術快速創建專業級影片內容,為內容創作者和行銷人員提供高效的影片製作解決方案。
模型介紹頁面 https://humanaigc.github.io/animate-anyone Animate Anyone 是一個工具,可以將靜態圖片和骨架動畫結合起來,生成動態影片。它使用先進的 AI 技術,保留圖片細節並保持動畫的連貫性。這個工具適合用於人類角色、動漫和時尚視頻等的動畫製作。 模型概念 GitHub位置 https://github.com/HumanAIGC/AnimateAnyone 不過我們可以看到現在這個Github上只有介紹而已,但是他們說因為他們正在把原始碼改得更易讀,所以仍需一些時間才能夠把開源代碼上傳上來,就讓我們持續等待吧~
3D 角色動畫服務的線上平台 可以在此試用你的3D模型mixamo: https://www.mixamo.com/ Mixamo 是一個提供自動 3D 角色動畫服務的線上平台。它讓使用者能夠選擇並自定義 3D 角色,並應用各種預設的動畫。該平台支持從現有的 3D 模型中生成動畫,並提供動畫調整功能,以滿足不同的需求。Mixamo 對於遊戲開發者、動畫製作人和其他 3D 創作者非常實用,能夠顯著加快製作流程。 Mixamo 的主要功能 Mixamo 的優勢 Mixamo 的應用場景
SF3D: https://stable-fast-3d.github.io SF3D 是一個快速生成3D網格模型的模型,它可以在不到一秒鐘的時間內從單一圖片輸出一個帶有UV展開和材質的3D模型。這個模型基於大型重建模型(LRM),專門針對網格生成進行訓練,並且包含快速UV展開技術和去光照步驟,從而提升重建模型的視覺質量,使其在新的光照條件下也能使用。 Github網站 詳情請參閱:GitHub – Stability-AI/stable-fast-3d Stable Fast 3D模型基於 TripoSR,但進行了改進,專注於生成無瑕疵的網格和帶有UV展開的紋理。SF3D 可以快速進行推理,並且生成的3D模型可以輕鬆整合到遊戲中。安裝環境需要 Python >= 3.8 和 CUDA,並且需要安裝 PyTorch。支持手動推理和本地 Gradio 應用的運行。 要安裝 SF3D,請按照以下步驟操作: 線上demo https://huggingface.co/spaces/stabilityai/stable-fast-3d…
Meshy – 線上圖片轉3D模型fbx檔案 網站: https://www.meshy.ai/ Meshy 是您的 3D 生成式 AI 工具箱,用於輕鬆從文本或圖像創建 3D 資產,從而加速您的 3D 工作流程。使用 Meshy,您可以在幾分鐘內創建高品質的紋理和 3D 模型。 Meshy的功能 Meshy是一個創新的 3D 模型生成平台,提供以下強大的功能 文字轉紋理 (Text-to-Texture): 圖片轉紋理…
17年資歷女工程師,專精於動畫、影像辨識以及即時串流程式開發。經常組織活動,邀請優秀的女性分享她們的技術專長,並在眾多場合分享自己的技術知識,也活躍於非營利組織,辦理活動來支持特殊兒及其家庭。期待用技術改變世界。
如果你認同我或想支持我的努力,歡迎請我喝一杯咖啡!讓我更有動力分享知識!