定價: | ||||
售價: | 595元 | |||
庫存: | 已售完 | |||
LINE US! | 詢問這本書 團購優惠、書籍資訊 等 | |||
此書籍已售完,調書籍需2-5工作日。建議與有庫存書籍分開下單 | ||||
付款方式: | 超商取貨付款 |
![]() |
|
信用卡 |
![]() |
||
線上轉帳 |
![]() |
||
物流方式: | 超商取貨 | ||
宅配 | |||
門市自取 |
為您推薦
類似書籍推薦給您
【簡介】 搶救弱底大作戰 適用初學、複習者,本書重點完整,實務函令即時補充,跨章節的表格統整,猶如老師在側引導,穩紮穩打,打底書、題庫書二合一,一本就夠,強化硬實力! 稅額計算沒問題 清晰的標題與計算過程,詳盡說明適用法令及數字來源,邏輯分明地學習稅額計算。綜合所得稅計算大表及步驟大公開,用過都說讚! 租稅申報功力大升級 「成果檢驗」單元,蒐集多年度記帳士、會計師、檢事官、公職財稅、地政士等經典考古題,選擇題及申論題均附擬答,助你申論答題勇奪高分、金榜題名! 出題考點風向雞 考古題舊題新解,將經典題型混和跨章節新考點,重新呈現!本書立志當考場上的大預言家,超前部屬! 【目錄】 二版序 編者序 本書使用方法 第1章 稅捐稽徵法 第2章 納稅者權益保護法 第3章 加值型與非加值型營業稅 第4章 綜合所得稅 第5章 營利事業所得稅 第6章 所得稅稽徵 第7章 所得基本稅額條例 第8章 房地合一所得稅 第9章 遺產及贈與稅
類似書籍推薦給您
【簡介】 本書所展現的是親切的教本式描述(非一般講義式),絕妙的學習口訣,例題與習題皆詳解,目標:可靠自修而讀懂的微積分!市面上這麼多的微積分書籍中,專門為理工科學生(將來要唸工數)與商管醫科學生(將來要唸經濟學、統計學)下筆,強調學習觀念、重視解說內容,因為讀懂比多算更重要!本書特色如下: .強調讀書方法,親切的文筆描述 雖名為“微積分”,卻找不到那種令人無法忍受之數學國語言!親切的說明彷彿親自聆聽作者授課一樣,配合生動有趣的“口訣”輕鬆地記住內容! .考轉或考研、理工或商管,都標示清楚 以豐富教學與輔考經驗寫出微積分應有內容(由淺到深),考轉或考研、理工或商管等皆分別標示清楚,讀來有效率! .數學名詞皆中英對照,一例一類易吸收 習題都是國立名校之研究所與轉學考題,配合詳細解答滿足考試、自修要求。懂內容那怕考題之變化! .編排紮實(不浪費)、舒適,分量充實 內容皆作者親自打字,編排紮實、不浪費空間,讓您在舒適的視感下「悅讀」微積分。 .考國外入學考試也輕鬆 內容涵蓋大學層次該有之Calculus部分,是超越原文書的微積分中文書,出國留學更適合當參考書! 劉明昌老師全新雲端課程,好課強力推薦! ★微積分就該這樣學—大一微積分先修課(6個月) 【目錄】 第一章 極限 第二章 微分學 第三章 微分應用 第四章 不定積分之求法 第五章 定積分 第六章 積分之幾何應用 第七章 數列與級數 第八章 偏微分及其應用 第九章 二重積分與三重積分 第十章 向量積分 第十一章 微分方程之解法 附錄 擺線參數式之推導、隱函數的斜漸近線之推導
類似書籍推薦給您
【簡介】 🏆 Amazone 讀者5星好評 ⭐⭐⭐⭐⭐ 🏆 微軟前總經理Shelia Gulati、Hugging Face首席倫理長 Giada Pistilli等業界領袖一致推薦! 「本書平衡了開源模型和閉源模型的潛力,鉅細靡遺地帶你瞭解和使用LLM,縮短理論概念和實際應用之間的距離。」—— Giada Pistilli ,Hugging Face 首席倫理長 「Ozdemir 的這本書為讀者破除重重迷霧,說明LLM 革命的起源,以及未來的發展方向。他將複雜主題拆解為實用的說明,和容易理解的範例程式。」 --Shelia Gulati, 微軟前總經理,Tola Capital現任常務董事 「本書是令人耳目一新並引發靈感的學習資源,充滿了實用的指導和清楚的講解,幫助你更瞭解這個奇妙的新領域。」 —PETE HUANG, author of The Neuron 🎯 想深入掌握LLM核心技術 🎯 想成為生成式AI應用的開發者 🎯 想在真實場景運用LLM解決問題 那你絕對不能錯過本書! 大型語言模型正以驚人的速度改變我們的工作與生活。無論是開發者、企業領袖,還是對AI有興趣的學習者,本書將引領你踏入這個革命性的領域。 🚩 完整拆解LLM核心技術— 從預訓練到微調,帶你輕鬆掌握關鍵概念原理。 🚩 實例操作直擊應用— 透過真實案例場景,運用最新工具和技術,快速上手專案開發。 🚩 開源與商用模型全解析— 精選LLM工具與資源,選擇最適切的解決方案。 這本實用的指南將逐步指導你在專案和產品中大規模地使用LLM。 Llama 3、Claude 3與GPT等大型語言模型(LLM)已展示驚人的實力,但它們的規模和複雜度,卻讓很多從業者望而卻步。創新的資料科學家暨AI企業家Sinan Ozdemir在本書第二版為你排除這些障礙,教你如何使用、整合和部署LLM來解決實際的問題。 Ozdemir把入門所需的知識整合起來,即使是沒有直接用過LLM的讀者也能輕鬆上手,本書內容包括逐步引導、最佳做法、真實案例研究、動手練習…等。在過程中,他也會分享關於LLM內部動作的見解,以協助你優化模型的選擇、資料格式、提示工程、微調效能…等。本書的網站提供許多資源,包括範例資料集,以及使用各種開源和閉源LLM的最新程式碼,那些LLM來自OpenAI(GPT-4與GPT-3.5)、Google(BERT、T5與Gemini)、X(Grok)、Anthropic(Claude家族)、Cohere(Command 家族),以及Meta(BART與LLaMA家族)。 SINAN OZDEMIR目前是LoopGenius的創辦人與CTO,同時擔任幾家AI公司的顧問。他曾在約翰·霍普金斯大學教導資料科學,並寫了多本關於資料科學和機器學習的教科書。 此外,他也創辦了最近被收購的Kylie.ai,這是一個具備RPA能力的企業級對話AI平台。他擁有約翰·霍普金斯大學的純數學碩士學位,現居於加州舊金山。 •學習關鍵的概念:預先訓練、遷移學習、微調、注意力機制、embedding、詞元化…等等。 •使用API和Python來微調及打造LLM,以滿足需求。 •建構完整的神經/語義資訊檢索系統,並附加至對話型LLM,以進行檢索增強生成(retrieval-augmented generation,RAG)機器人及AI Agents。 •掌握進階的提示工程技術,例如輸出結構化、思維鏈提示,及少量語義範例提示。 •使用自訂的LLM embedding,從零開始建立完整的推薦引擎,並透過用戶資料來讓效能超越 OpenAI的現成embedding。 •使用開源的LLM和大型視覺資料集,從零開始建構並微調多模態Transformer架構。 •使用Reinforcement Learning from Human and AI Feedback(RLHF/RLAIF)來調校LLM,並基於Llama 3和FLAN-T5等開源模型來建立對話agent。 •將提示詞和微調過的自訂LLM部署至雲端,同時預先考慮擴展和演進流水線。 •透過量化、探測、效能評測與評估框架,來診斷與優化LLM的速度、記憶體用量及整體效能。 【目錄】 序 前言 致謝 關於作者 PART I 大型語言模型簡介 1 大型語言模型概述 大型語言模型是什麼? 流行的現代LLM LLM的應用 結論 2 使用LLM來進行語意搜尋 前言 任務 解決方案概要 組件 整合一切 使用閉源組件的成本 結論 3 踏出提示工程的第一步 前言 提示工程 在不同模型之間使用提示 結論 4 AI生態系統:整合所有組件 前言 閉源AI的效能不斷變動 AI推理vs.思考 案例研究1:檢索增強生成 案例研究2:自動AIagent 結論 PART II 榨出LLM的所有潛力 5 使用自訂的微調來優化LLM 前言 遷移學習和微調:入門指南 OpenAI微調API概要 使用OpenAICLI來準備自訂範例 設定OpenAICLI 我們微調的第一個LLM 結論 6 進階提示工程 前言 提示注入攻擊 輸入/輸出驗證 批次提示 提示鏈 案例研究:AI的數學能力有多強? 結論 7 自訂embedding與模型架構 前言 案例研究:建立推薦系統 結論 8 AI對齊:第一原則 前言 對齊的對象是誰?為了什麼目的? 對齊可以降低偏見的嚴重性 對齊的支柱 憲法AI:邁向自我對齊的一步 結論 PART III LLM進階用法 9 超越基礎模型 前言 案例研究:視覺問答 案例研究:透過回饋來進行強化學習 結論 10 微調進階的開源LLM 前言 範例:使用BERT來做動畫類型多標籤分類 範例:使用GPT2來生成LaTeX Sinan’sAttemptatWiseYetEngagingResponses:SAWYER 結論 11 將LLM投入生產 前言 將閉源LLM部署至生產環境 將開源LLM部署至生產環境 結論 12 評估LLM 前言 評估生成任務 評估理解任務 結論 繼續前進! PART IV 附錄 A LLM FAQ B LLM詞彙表 C LLM應用程式原型 索引