為您推薦
其他會員也一起購買
書名:心理衡鑑大全(中文第三版) 作者:張本聖(Groth-Marnat) 出版社:雙葉 出版日期:2019/05/20 ISBN:9789579096379 內容簡介 本書針對最常使用的心理測驗及衡鑑工具,提供了最新的測驗版本、研究資訊、計分及解釋系統。本書亦創造了一個豐富且全面性的心理衡鑑資源庫,雖然以實務為主軸,但也適時地將科學融入其中,目標是從澄清轉介問題到撰寫對轉介者、案主有用的心理衡鑑報告過程中所遇問題,都能提供解答。 ●教你如何將評量分數及資料轉化成轉介問題的資訊及建議。 ●教你如何將心理衡鑑與治療、安置等建議緊密結合。 ●教你如何用轉介者能看得懂的方式寫出專業的心理衡鑑報告。 ●教你如何用美國心理學會心理衡鑑報告檢核表的五個面向(全面性、整合性、效度、以案主為中心、整體撰寫)修正報告。 目錄 第01章緒論 1.1本書的架構 1.2臨床工作者的角色 1.3臨床衡鑑中測驗使用的模式 1.4心理測驗的評價 1.5臨床實務中的效度 1.6臨床判斷 1.7臨床衡鑑的階段 第02章臨床衡鑑的情境 2.1轉介情境的種類 2.2衡鑑的倫理考量 2.3多元族群的衡鑑 2.4心理測驗的選擇 2.5電腦輔助的衡鑑方法 第03章衡鑑會談 3.1歷史沿革與發展 3.2與信度、效度相關的議題 3.3優點與限制 3.4衡鑑會談與個案史 3.5精神狀態評量 3.6會談資料的解析 3.7結構式會談 第04章行為衡鑑 4.1歷史沿革與發展 4.2與信度、效度相關的議題 4.3優點與限制 4.4行為衡鑑的策略 第05章魏氏智力量表 5.1從正反兩面看智力測驗 5.2歷史沿革與發展 5.3信度與效度 5.4優點與限制 5.5多元族群的WAIS 使用 5.6智商分數的意義 5.7施測的提醒與準則 5.8WAIS-IV/WISC-V 連續階層式解釋程序 5.9魏氏指數及分測驗 5.10腦傷的衡鑑 5.11其他群組的衡鑑 5.12測驗簡式組合 第06章魏氏記憶量表 6.1歷史沿革與發展 6.2信度與效度 6.3優點與限制 6.4運用於多元族群 6.5解釋程序 6.6指數分數的解釋模式 6.7WAIS-IV 及 WMS-IV 分數的比較 6.8附加的考量:詐病及改變的評量 第07章明尼蘇答多相人格測驗 7.1歷史沿革與發展 7.2信度與效度 7.3優點與限制 7.4運用於多元族群 7.5施測 7.6MMPI-2 解釋程序 7.7MMPI-2 電腦化解釋 7.8MMPI-2 效度量尺 7.9MMPI-2 臨床量尺 7.10MMPI-2 雙峰組型 7.11MMPI-2 內容量尺 7.12MMPI-A 內容量尺 7.13MMPI-2 Harris-Lingoes 分量尺和Si 分量尺 7.14MMPI-2 關鍵題目 7.15MMPI-2 和MMPI-A 的輔助量尺 7.16MMPI-2-RF 解釋程序 7.17MMPI-2-RF 效度量尺 7.18MMPI-2-RF 高階量尺 7.19MMPI-2-RF 重組臨床量尺 7.20MMPI-2-RF 特定問題量尺 7.21興趣量尺 7.22MMPI-2-RF 病態人格五量尺 第08章米隆臨床多軸量表 8.1歷史沿革與發展 8.2信度與效度 8.3優點與限制 8.4運用於多元族群 8.5解釋程序 8.6效度量尺 8.7臨床人格型態量尺 8.8嚴重人格病理量尺 8.9臨床症候群量尺 8.10嚴重症候群量尺 第09章NEO 人格量表 9.1歷史沿革與發展 9.2信度與效度 9.3優點與限制 9.4運用於多元族群 9.5解釋程序 第10章羅夏克測驗 10.1歷史沿革與發展 10.2信度與效度 10.3優點與限制 10.4運用於多元族群 10.5綜合系統:施測 10.6綜合系統:計分 10.7綜合系統:結構摘要 10.8綜合系統:解釋 10.9羅夏克表現衡鑑系統:施測 10.10羅夏克表現衡鑑系統:計分 10.11羅夏克表現衡鑑系統:結構摘要 10.12羅夏克表現衡鑑系統:解釋 第11章神經心理損傷的篩檢與衡鑑 11.1歷史沿革與發展 11.2大腦損傷的會談衡鑑 11.3神經心理功能領域 11.4班達視覺動作完形測驗 11.5神經心理狀態評估之重複型量表 第12章規劃治療、管控和評估成效的簡短工具 12.1選擇簡短型衡鑑工具 12.2症狀檢核表90- 修訂版和簡式症狀問卷 12.3貝克憂鬱量表第二版 12.4狀態性-特質性焦慮量表 第13章治療計畫和臨床決策 13.1治療計畫的發展和探索 13.2介入(治療計畫)的選擇 13.3臨床決策 13.4個案構念化 13.5了解問題 13.6了解問題內容 13.7治療特定個案的特質 13.8系統治療選擇(STS)/ 內在生活取向 第14章心理衡鑑報告 14.1一般原則 14.2回饋 14.3心理衡鑑報告的格式 14.4報告範例
其他會員也一起購買
諮商新手知多少:第一次諮商實習就上手 ISBN13:9789865492298 出版社:雙葉書廊 作者:喬虹 裝訂/頁數:平裝/304頁 規格:21cm*14.8cm*1.4cm (高/寬/厚) 版次:增訂1版 出版日:2022/02/01 中國圖書分類:諮商;面談法 內容簡介 作者以輕鬆幽默的筆調,暢談諮商心理與輔導相關科系學生於諮商實習時所需要具備的基礎能力,以及在實習現場可能遇到的各類狀況。本書為華語書目中第一本針對諮商實習所撰寫的教科書,有別於其他類型的教科書,採取大量作者在實習課程教學經驗中所輔導的實際案例,以第一人稱撰寫,彷如作者直接與學生讀者面對面溝通,輕鬆易讀。本書雖為碩士班修習諮商實習課程的學生而寫,亦可推薦給大學部目前正在輔導現場從事輔導與諮商專業實習的學生閱讀。 實務性:完全根據作者教學現場實況與拜訪實習督導多年實戰經驗撰寫而成。 詼諧性:以幽默風趣的筆法、淺顯易懂的文字,輔以趣味十足的漫畫,帶領學生以專業的素養、從容的態度進入實習情境。 專屬性:是全臺第一本專為高等教育之諮商實習課程,量身訂製的中文教科書。 作者介紹 作者簡介 喬虹 現職:國立臺北教育大學心理與諮商學系專任助理教授 學歷:美國密蘇里大學哥倫比亞分校諮商心理學博士 經歷:Non-US Based Co-Chair, International Section, Society of Counseling Psychology, American Psychological Association(APA) 諮商心理師公會全國聯合會理事 台灣輔導與諮商學會常務理事 臺灣諮商心理學會副理事長 Taiwan Psychology Network Chair 美國馬里蘭大學諮商中心博士級全職實習心理師 美國密蘇里大學哥倫比亞分校同志資源中心友善校園講座訓練師 專長:諮商督導、多元文化與跨文化諮商、性別與性取向相關議題 目錄 PART 1 實習前的專業與身心準備 1.1 諮商實習是什麼東東 1.2 誰人疼惜我?花應落誰家 1.3 請叫我面試達人 1.4 萬丈高樓平地起 1.5 督導是怎樣的監督者 1.6 實習週誌怎麼寫 1.7 個案紀錄怎麼寫 1.8 個案報告在做什麼 1.9 淺談通訊心理諮商 1.10 健康的身心是奮鬥的本錢 PART 2 實習時的各類狀況 2.1 魔鏡呀魔鏡,請問怎麼樣才能讓督導喜歡我 2.2 讓我歡喜讓我憂 2.3 火拌、夥伴,傻傻分不清 2.4 現在蹲低一點是為了以後能跳更高 2.5 老天爺,請賜給我完美的案主吧 2.6 我們都要練習好好說再見 2.7 實習課老師的機構拜訪:三方會談 2.8 實習真的過不去,也請不要把撤退的橋燒掉 PART 3 諮商員的基本功 3.1 我是誰 3.2 從我到我們:共赴多元文化之旅 3.3 姊教的不是技術,是人性 3.4 諮商師是人 3.5 內省真的好辛苦,最難過的就是自己這一關 3.6 人際衝突何時了,往事知多少 3.7 你想成為什麼樣的心理師 3.8 從學生到心理師:不再(只?)是乖乖牌 3.9 你是具有科學家精神的實務工作者嗎 PART 4 諮商員訓練番外篇 4.1 寫給大學部學生的一封情書 4.2 老師,請問您可以幫我寫推薦信嗎 4.3 碩士學位請不要當成博士唸 4.4 學生出門玩什麼(上)─國外學術研討會教戰守則 4.5 學生出門玩什麼(下)─國內學術研討會教戰守則 後記:從成為專業到終生志業─我是諮商心理師
其他會員也一起購買
【簡介】 本書特色 1.以三大篇章,共41種冒險旅程,成為可以活用AI的深度學習達人。 2.書中以各種有趣的範例,如:用電腦創作歌詞、使用DeepFace打造人臉辨識、情緒辨識等引發學習興趣。 3.書末以「股票的自動交易系統」為專題,從資料整理與程式實作兩方面做整合性的應用。 4.輕鬆活潑的筆調,搭配作者親手繪製的可愛插圖,以圖解化方式加深學習印象。 5.整合式開發環境:Anaconda。 內容簡介 近年來人工智慧最主要的重心在深度學習,也是因深度學習有許多突破性的發展,而讓人工智慧有了許多以前意想不到的應用。本書承襲前作《少年 Py的大冒險:成為Python數據分析達人的第一門課》的風格,藉由輕鬆活潑的方式,從基本的原理開始,讀者可一步步跟著書中每個冒險,成為可以活用AI的深度學習達人! 本書規劃三個篇章,共41種冒險。從AI的原理、怎麼思考所需的AI模型開始說明,接著介紹神經網路三大天王(DNN、CNN、RNN),並大量運用Gradio這個有趣的套件,把書中的AI模型做成網路應用程式。 本書也介紹了如何用Hugging Face的transformers套件打造有趣的自然語言處理應用,以及使用DeepFace打造人臉辨識、情緒辨識等等。對於生成對抗網路(GAN)及強化學習也有相當詳細地說明。 【目錄】 第1篇【啟程】打造裝備,踏上深度學習冒險旅程 【工具準備】 冒險 01 Colab 免安裝的深度學習環境 冒險 02 瞭解Colab 的檔案系統 冒險 03 用Anaconda 在自己電腦打造深度學習環境 冒險 04 互動模式的複習 冒險 05 用 Gradio 神速打造 Web App! 【人工智慧概念】 冒險 06 人工智慧就是問個好問題,化成函數的形式學個函數! 冒險 07 打造函數學習機三部曲 冒險 08 運用深度學習的種種想法 第2篇【冒險】深度學習的三大天王 【全連結神經網路】 冒險 09 神經網路的概念和全連結神經網路 冒險 10 神經網路的學習方式 冒險 11 實作手寫辨識:MNIST 數據集 冒險 12 打造全連結神經網路函數學習機 冒險 13 讀回我們的 model, 用 gradio 瞬間打造網路 app! 【圖形辨識天王 CNN】 冒險 14 圖形辨識天王 CNN 冒險 15 用 CNN 做圖形辨識 - 資料處理篇 冒險 16 三部曲打造圖形辨識 CNN 冒險 17 Cooper 真的是馬爾濟斯嗎?使用名門 CNN 幫助辨識! 冒險 18 遷移式學習做八哥辨識 【有記憶的神經網路 RNN】 冒險 19 神經網路三大天王之有記憶的 RNN 冒險 20 IMDb 評論情意分析問題介紹 冒險 21 打造 RNN 情意分析函數學習機 冒險 22 打造真的可以使用的情意分析 冒險 23 RNN 技巧討論 冒險 24 《紅樓夢》生成器 冒險 25 打造自己的 Tokenizer(文字型資料的處理) 第3篇【回歸】發揮創意,看到 AI 的無限可能 【Attention 和 transformer】 冒險 26 RNN 看成 Encoder-Decoder Structure 冒險 27 Attention 注意力模式的概念 冒險 28 有機會成為第四大天王的變形金剛 transformer 冒險 29 芝麻街自然語言新時代 冒險 30 用 transformers 快速打造文字生成器 冒險 31 讓我們做歌詞產生器網路 App! 【生成模式和 GAN】 冒險 32 神經網路的另一個打造方式 冒險 33 Functional API 介紹 冒險 34 簡單找表示向量的方法 Autoencoder 冒險 35 創作型的神經網路 GAN 冒險 36 有趣的 GAN 應用 冒險 37 FaceNet 和特徵表現向量的尋找 冒險 38 用 DeepFace 來做人臉辨識! 【強化學習和 DQN】 冒險 39 強化學習的介紹 冒險 40 自動交易系統:資料整理篇 冒險 41 自動交易系統:程式實作篇
其他會員也一起購買
【簡介】 用自己的電腦也能從零開始建構 LLM 模型! LLM 的參數真的非常多~ 動輒就數千億個參數,一般家用電腦是跑不動的;再加上 LLM 模型架構、注意力機制的運作都非常複雜,要深入理解也有不小的門檻。 ★ 機器學習專家 Sebastian Raschka 特別規劃了一整套的教練式教學,透過較小型的資料集,讓您能在一般電腦上跟著步驟實作,並逐步理解大型語言模型的架構與技術! - 本書涵蓋了建構 LLM 的完整過程,包括處理資料集、實作模型架構、注意力機制、使用無標籤的資料進行預訓練,以及針對特定任務的微調技術 (分類任務微調與指令微調)。 - 書中每一步驟都有清楚的文字、圖解和程式範例,帶著你從零開始撰寫一個基礎模型,並將其進化為文本分類工具,最終創建一個能夠理解並回應對話指令的聊天機器人。 ★ 經驗豐富的開發者與初學者,都可以學習到如何一步步建構一個 GPT,掌握創建 LLM 所需的基本概念與實作技巧! - 如果是具備基礎機器學習知識、中階 Python 技能的讀者,作者提供了許多額外資源,包含完整程式碼範例 (GitHub 儲存庫)、參考文獻與延伸閱讀 (像是如何應用更大規模的模型參數)、優化訓練迴圈與進階的 LoRA 微調方法,讓您可以再進一步深入學習,持續往專家邁進! - 對於初學者來說,作者在附錄中有提供 PyTorch 基礎知識與安裝解說,而小編則在內文中適當添加註解,幫助讀者能更好地理解內容。另外,旗標更準備了 Colab 線上資源,讓您理論、實作都能暢通無阻。就算是程式語言小白,初入門也能無痛學習、打好 LLM 的基礎~ 一起提前起跑,搶佔 LLM 理論知識與 GPT 模型實作的先機,為自己投資一個無限的未來! 【目錄】 ▌第 1 章 理解大型語言模型 1.1 什麼是 LLM? 1.2 LLM 的應用 1.3 建構與使用 LLM 1.4 Transformer 架構介紹 1.5 大型資料集的運用 1.6 深入探討 GPT 架構 1.7 建構大型語言模型 (LLM) 1.8 重點回饋 ▌第 2 章 處理文本資料 2.1 詞嵌入 (Word Embedding,或稱詞向量) 2.2 文本斷詞 (Tokenize) 2.3 將 token 轉換為 token ID 2.4 添加特殊 token 2.5 字節對編碼 (Byte Pair Encoding, BPE) 2.6 使用滑動視窗法 (Sliding Window) 進行資料取樣 2.7 創建 token 嵌入 (Embedding) 2.8 位置資訊的編碼 2.9 重點回顧 ▌第 3 章 實作注意力機制 3.1 長序列建模的問題 3.2 使用注意力機制捕捉資料依賴關係 3.3 利用自注意力機制,關注輸入序列中的不同位置 - 3.3.1 簡化的自注意力機制 (不使用可訓練權重) - 3.3.2 計算所有輸入 token 的注意力權重 3.4 使用「可訓練權重」實作自注意力機制 - 3.4.1 逐步計算注意力權重 - 3.4.2 實作一個精簡的自注意力 Python 類別 3.5 使用因果注意力遮蔽未來的字詞 - 3.5.1 應用因果注意力遮罩 - 3.5.2 用 dropout 遮蔽額外的注意力權重 - 3.5.3 實作一個精簡的因果注意力類別 3.6 將單頭注意力擴展至多頭注意力 - 3.6.1 堆疊多個單頭注意力層 - 3.6.2 實作具有權重切分的多頭注意力 3.7 重點回顧 ▌第 4 章 從零實作 GPT 模型以生成文本 4.1 撰寫 LLM 架構 - 4.1.1 指定模型配置 - 4.1.2 實作 GPT 佔位架構 - 4.1.3 斷詞處理 - 4.1.4 將批次資料輸入到模型 4.2 將輸出進行層歸一化 - 4.2.1 檢查指定維度的輸出平均值和方差 - 4.2.2 層歸一化處理 4.3 實作具有 GELU 激活函數的前饋神經網路 4.4 增加捷徑連接 (Shortcut Connection) 4.5 在 Transformer 模組中連結注意力與線性層 4.6 撰寫 GPT 模型 4.7 生成文本 4.8 重點回顧 ▌第 5 章 使用無標籤的資料集進行預訓練 5.1 評估文本生成品質 - 5.1.1 使用 GPT 來生成文本 - 5.1.2 計算文本生成損失 - 5.1.3 計算訓練和驗證損失 5.2 訓練 LLM - 5.2.1 預訓練 LLM 的主要函式 - 5.2.2 啟動預訓練 5.3 運用文本生成策略 (解碼策略) 來控制隨機性 - 5.3.1 溫度縮放 (Temperature Scaling) - 5.3.2 Top-k 取樣 - 5.3.3 修改文本生成函式 5.4 在 PyTorch 中載入和儲存模型權重 5.5 從 OpenAI 載入預訓練權重 5.6 重點回顧 ▌第 6 章 分類任務微調 6.1 常見的 2 種微調類型 6.2 準備資料集 - 6.2.1 下載資料集 - 6.2.2 平衡資料集 - 6.2.3 轉換為整數類別標籤 - 6.2.4 分割資料集 6.3 建立資料載入器 - 6.3.1 使用 <|endoftext|> 作為填充 token - 6.3.2 進行斷詞與填充處理 - 6.3.3 實例化資料載入器 6.4 使用預訓練權重初始化模型 6.5 將輸出層更換為分類輸出層 - 6.5.1 檢查模型架構 - 6.5.2 凍結模型 - 6.5.3 替換輸出層,並指定特定層為可訓練狀態 - 6.5.4 只需微調最後一列 token 6.6 計算分類損失與準確率 - 6.6.1 將最後一個 token 轉換為類別標籤的預測值 - 6.6.2 計算各個資料集的分類準確度 - 6.6.3 使用交叉熵損失判斷模型的準確度 6.7 使用監督資料 (Supervised Data) 來微調模型 - 6.7.1 微調模型的訓練函式 - 6.7.2 啟動訓練 - 6.7.3 透過繪製損失函數,判斷模型學習效果 - 6.7.4 計算模型分類任務的準確度 6.8 使用 LLM 做為垃圾訊息分類器 6.9 重點回顧 ▌第 7 章 指令微調 7.1 指令微調概述 7.2 準備監督式指令微調的資料集 - 7.2.1 下載資料集 - 7.2.2 將資料集套用提示詞格式 - 7.2.3 分割資料集 7.3 將資料分成多個訓練批次 - 7.3.1 斷詞處理 - 7.3.2 允許不同批次擁有不同序列長度的 collate 函式 - 7.3.3 創建能讓模型學習預測的目標 token ID - 7.3.4 將填充 token 指定為一個特殊值 7.4 為指令資料集建立資料載入器 - 7.4.1 提升模型訓練效率的 device 設置 - 7.4.2 設置資料載入器 7.5 載入預訓練的 LLM - 7.5.1 載入現有的 GPT 模型 - 7.5.2 評估預訓練好的模型性能 7.6 使用指令資料集來微調 LLM - 7.6.1 計算損失 - 7.6.2 訓練模型,將損失最小化 - 7.6.3 檢視訓練與驗證損失曲線 7.7 取得模型生成的回應 - 7.7.1 人工檢查 (肉眼判斷) 模型回應的品質 - 7.7.2 指令微調有多種模型評估方法 - 7.7.3 使用 AlpacaEval 方法前的準備步驟 7.8 評估微調後的 LLM - 7.8.1 下載 Llama3 模型並啟動 Ollama - 7.8.2 測試並確保 Ollama 正確運行 - 7.8.3 對微調模型的回應進行評分 7.9 總結 - 7.9.1 未來方向 - 7.9.2 持續學習、掌握脈動 - 7.9.3 結語 7.10 重點回顧 【附錄電子書】 ▌附錄 A PyTorch 簡介 A.1 什麼是 PyTorch? A.2 張量簡介 A.3 以運算圖 (Computation Graph) 來理解模型 A.4 自動微分功能簡介 A.5 實作多層神經網路 A.6 建立高效的資料載入器 A.7 典型的訓練迴圈 A.8 儲存與載入模型 A.9 使用 GPU 優化訓練效能 A.10 重點回顧 ▌附錄 B 參考文獻與延伸閱讀 ▌附錄 C 練習題解答 ▌附錄 D 優化訓練迴圈的方法 D.1 預熱學習率 (Learning Rate Warmup) D.2 餘弦衰減 (Cosine Decay) D.3 梯度分割 (Gradient Clipping) D.4 修改後的訓練函式 ▌附錄 E 使用 LoRA 進行參數高效微調 (Parameter-Efficient Fine-tuning) E.1 LoRA 簡介 E.2 準備資料集 E.3 初始化模型 E.4 使用 LoRA 進行參數高效微調