找到 510 篇文章 關於演算法

資料探勘中的劃分方法(K 均值)

sudhir sharma
更新於 2024-01-22 16:57:44

3K+ 次檢視

本文分解了 K 均值的概念,這是一種流行的劃分方法,從其演算法框架到其優缺點,幫助您更好地理解此複雜工具。讓我們深入瞭解 K 均值聚類的迷人世界!K 均值演算法 K 均值演算法是一種基於質心的技術,通常用於資料探勘和聚類分析。K 均值的工作原理?K 均值演算法是資料探勘劃分方法中的主要參與者,它透過一系列清晰的步驟進行操作,這些步驟從基本的資料分組到詳細的聚類分析。初始化 - 指定要建立的聚類數“K”。這... 閱讀更多

資料探勘 - 資料清洗

Pranavnath
更新於 2023-10-23 15:30:25

778 次檢視

介紹 資料探勘是一種從海量資料集中提取重要結論和知識的方法,它嚴重依賴於資料清洗。在發揮資料探勘演算法的潛力之前,確保輸入資料準確、一致和完整非常重要。由於人為錯誤或系統故障(例如缺失值或格式錯誤),原始收集的資料通常包含錯誤。資料探勘是指從大量原始或非結構化資料中發現模式、關係和有價值見解的過程。資料探勘 – 資料清洗 資料清洗是任何成功資料探勘練習中不可或缺的一部分,因為... 閱讀更多

什麼是機器學習中的分組卷積?

Bhavani Vangipurapu
更新於 2023-10-17 10:59:43

217 次檢視

介紹 過濾器組的概念,也稱為分組卷積,最早由 AlexNet 在 2012 年提出。這種創造性的解決方案源於需要使用兩塊 Nvidia GTX 580 GPU(每塊 GPU 記憶體為 1.5GB)來訓練網路。挑戰:GPU 記憶體有限 在測試期間,AlexNet 的建立者發現它需要略低於 3GB 的 GPU RAM 才能進行訓練。不幸的是,由於記憶體限制,他們無法有效地使用兩塊 GPU 來訓練模型。過濾器組背後的動機 為了解決 GPU 記憶體問題,作者提出了過濾器組。透過最佳化模型的並行化... 閱讀更多

機器學習中的短期記憶是如何工作的?

Bhavani Vangipurapu
更新於 2023-10-17 10:32:14

84 次檢視

介紹 LSTM 代表長短期記憶,是一種先進的迴圈神經網路 (RNN),專門設計用於分析文字、語音和時間序列等順序資料。與傳統的 RNN 難以捕獲資料中的長期依賴關係不同,LSTM 擅長理解和預測序列中的模式。傳統的 RNN 在處理序列時隨著時間的推移保留關鍵資訊方面面臨重大挑戰。此限制阻礙了它們根據長期記憶進行準確預測的能力。LSTM 的開發是為了克服這一障礙,使網路能夠在較長時間記憶體儲和維護資訊。一個... 閱讀更多

機器學習中解釋情景記憶和深度 Q 網路

Bhavani Vangipurapu
更新於 2023-10-17 10:30:22

92 次檢視

介紹 近年來,深度神經網路 (DNN) 在強化學習演算法方面取得了重大進展。然而,為了獲得理想的結果,這些演算法在樣本效率方面存在不足。解決這一挑戰的一種很有前途的方法是基於情景記憶的強化學習,它使智慧體能夠快速掌握最佳動作。使用情景記憶來增強智慧體訓練,情景記憶深度 Q 網路 (EMDQN) 是一種受生物啟發的 RL 演算法。研究表明,EMDQN 顯著提高了樣本效率,從而提高了發現有效策略的機會。它透過在 Atari 上取得最先進的效能,超越了常規 DQN 和其他基於情景記憶的 RL 演算法... 閱讀更多

機率密度估計和最大似然估計指南

Someswar Pal
更新於 2023-10-13 08:33:27

205 次檢視

密度估計是機器學習和統計學的重要組成部分。這意味著獲取一組資料的機率密度函式 (PDF)。它對於許多事情都是必要的,例如查詢異常值、將事物分組、建立模型以及查詢問題。基於深度學習,本研究考察了測量舊密度和新密度的所有方法。傳統密度估計方法 直方圖 無論您是否需要快速瞭解您的資料收集是否完整,直方圖都是最佳選擇。它們獲取資料範圍並將其分成稱為“箱”的類別以確定... 閱讀更多

理解稀疏 Transformer:步幅和固定因式分解注意力

Someswar Pal
更新於 2023-10-12 11:02:13

259 次檢視

Transformer 模型在自然語言處理 (NLP) 領域取得了長足的進步,在許多工中取得了最先進的結果。但是,Transformer 的計算複雜度和記憶體需求隨著輸入序列長度的增加而增加四倍。這使得快速處理長序列變得困難。研究人員開發了稀疏 Transformer,這是 Transformer 設計的擴充套件,它添加了稀疏注意力機制,以解決這些問題。本文探討了稀疏 Transformer 的概念,重點關注步幅和固定因式分解注意力,這兩種方法有助於使這些模型更有效率和有效。Transformer 回顧 在深入瞭解... 閱讀更多

理解 AHA:人工海馬演算法

Someswar Pal
更新於 2023-10-12 10:58:17

67 次檢視

介紹 大腦是最複雜的器官,被用於各種科學研究。人類大腦被研究,其原型被用於人工智慧 (AI) 和機器學習 (ML)。海馬體是大腦的重要組成部分。它幫助我們學習、記憶和四處走動。研究人員試圖建立一種人工海馬演算法 (AHA),它可以複製 ML 系統中海馬體的功能和技能。本文討論了 AHA,其機制、範圍和侷限性。人工海馬演算法的動機 建立 AHA 的目標是提高... 閱讀更多

如何在機器學習中解釋穩態遺傳演算法 (SSGA)?

Someswar Pal
更新於 2023-10-12 10:57:07

417 次檢視

穩態遺傳演算法 (SSGA) 通常用於機器學習和最佳化任務。它是一種基於種群的迭代搜尋方法,基於自然進化和遺傳學背後的思想。SSGA 使用一組可能的解決方案,表示為個體或染色體。以下是 SSGA 遺傳演算法的工作原理 初始化 - 演算法首先建立一個稱為初始種群的組。每個人都是解決手頭問題的可能方法。大多數情況下,種群是根據我們對問題領域的瞭解隨機建立或啟動的。評估 - 每個人... 閱讀更多

什麼是機器學習中的簡單遺傳演算法 (SGA)?

Someswar Pal
更新於 2023-10-12 10:55:16

226 次檢視

簡單遺傳演算法 (SGA) 是機器學習和人工智慧中一種流行的最佳化方法。SGA 以自然選擇為模型,使用交叉和變異等遺傳運算元來建立候選解決方案池。它們具有全域性搜尋能力,並且擅長解決複雜的最佳化問題。SGA 有助於解決組合問題,並且可以處理不可微的景觀。由於其靈活且可靠的結構(透過更改引數進行調整),因此可以使用 SGA 找到最優或接近最優的解決方案。本文深入探討了 SGA 的基礎知識、其優點和缺點、它們擅長的領域以及... 閱讀更多

廣告

© . All rights reserved.