Llama - 環境設定



Llama 的環境設定只需幾個關鍵步驟,包括安裝依賴項、Python及其庫,以及配置你的 IDE 以提高開發效率。現在,你已經擁有了良好的工作環境,可以輕鬆地使用 Llama 進行開發。如果你對開發 NLP 模型或進行文字生成實驗感興趣,這將確保你 AI 之旅的順利開始。

讓我們繼續安裝依賴項和配置 IDE,以便我們可以執行程式碼並進行正確的配置。

依賴項安裝

作為繼續編寫程式碼的先決條件,你必須檢查是否已安裝所有必要的元件。Llama 依賴許多庫和包才能在自然語言處理和基於 AI 的任務中順利執行。

步驟 1:安裝 Python

首先,你應該確保你的機器上已安裝 Python。Llama 要求 Python 版本至少為 3.8 或更高版本才能成功安裝。如果尚未安裝,你可以從 Python 官方網站獲取。

步驟 2:安裝 PIP

你必須安裝 PIP,Python 的包安裝程式。以下是如何檢查 PIP 是否已安裝:

pip --version

如果沒有安裝,可以使用以下命令進行安裝:

python -m ensurepip –upgrade

步驟 3:安裝虛擬環境

使用虛擬環境來隔離專案的依賴項至關重要。

安裝

pip install virtualenv

為你的 Llama 專案建立虛擬環境:

virtualenv Llama_env

啟用虛擬環境:

Windows

Llama_env\Scripts\activate

Mac/Linux

source Llama_env/bin/activate

步驟 4:安裝庫

Llama 需要幾個 Python 庫才能執行。要安裝它們,請在終端中輸入以下命令。

pip install torch transformers datasets

這些庫包括:

  • torch - 深度學習相關任務。
  • transformers - 預訓練模型。
  • datasets - 用於處理大型資料集。

嘗試在 Python 中匯入以下庫以檢查安裝情況。

import torch
import transformers
import datasets

如果沒有錯誤訊息,則安裝完成。

設定 Python 和庫

設定依賴項,然後安裝 Python 和庫來構建 Llama。

步驟 1:驗證 Python 安裝

開啟 Python 直譯器並執行以下程式碼以驗證 Python 和所需的庫是否已安裝:

import torch
import transformers

print(f"PyTorch version: {torch.__version__}")
print(f"Transformers version: {transformers.__version__}")

輸出

PyTorch version: 1.12.1
Transformers version: 4.30.0

步驟 2:安裝附加庫(可選)

根據你使用 Llama 的用例,你可能需要一些額外的庫。以下是可選但非常有用的庫列表:

  • scikit-learn - 用於機器學習模型。
  • matplotlib - 用於視覺化。
  • numpy - 用於科學計算。

使用以下命令安裝它們:

pip install scikit-learn matplotlib numpy

步驟 3:使用小型模型測試 Llama

我們將載入一個小型預訓練模型來檢查一切是否執行順利。

from transformers import pipeline

# Load the Llama model
generator = pipeline('text-generation', model='EleutherAI/gpt-neo-125M')
 
# Generating text
output = generator("Llama is a large language model", max_length=50, num_return_sequences=1)
print(output)

輸出

[{'generated_text': 'Llama is a large language model, and it is a language 
model that is used to describe the language of the world. The language model
is a language model that is used to describe the language of the world. 
The language model is a language'}]

這表明配置正確,我們現在可以將 Llama 整合到我們的應用程式中。

配置你的 IDE

選擇合適的 IDE 並正確配置它將使開發非常順利。

步驟 1:選擇 IDE

以下是一些最流行的 Python IDE 選擇:

Visual Studio Code VS Code PyCharm

在本教程中,我們將選擇 VS Code,因為它輕量級且擁有大量的 Python 專用擴充套件。

步驟 2:為 VS Code 安裝 Python 擴充套件

要在 VS Code 中開始使用 Python 開發,你需要 Python 擴充套件。可以直接透過 VS Code 中的擴充套件進行安裝。

  • 開啟 VS Code
  • 你可以導航到“擴充套件”檢視,點選“擴充套件”圖示,或使用 Ctrl + Shift + X。
  • 搜尋“Python”並安裝 Microsoft 官方擴充套件。

步驟 3:配置 Python 直譯器

我們透過以下操作設定 Python 直譯器以使用我們之前建立的虛擬環境:

  • Ctrl+Shift+P - 開啟命令面板
  • Python - 選擇直譯器,並選擇虛擬環境中可用的直譯器;我們選擇位於 Llama_env 中的那個。

步驟 4:建立 Python 檔案

現在你已經選擇了你的直譯器,你可以建立一個新的 Python 檔案並將其儲存為你想要的任何名稱(例如,Llamam_test.py)。以下是如何使用 Llama 載入和執行文字生成模型:

from transformers import pipeline
generator = pipeline('text-generation', model='EleutherAI/gpt-neo-125M')
# Text generation
output = generator("Llama is a large language model", max_length=50, num_return_sequences=1)
print(output)

在輸出中,你將看到 Python 環境是如何配置的,程式碼是在整合開發環境中編寫的,輸出顯示在終端中。

輸出

[{'generated_text': 'Llama is a large language model, and it is a language
model that is used to describe the language of the world. The language 
model is a language model that is used to describe the language of 
the world. The language model is a language'}]

步驟 5:執行程式碼

如何執行程式碼?

  • 右鍵單擊 Python 檔案,然後在終端中執行 Python 檔案。
  • 預設情況下,它會在整合終端中自動顯示輸出。

步驟 6:在 VS Code 中進行除錯

除了對除錯的大力支援外,VS Code 還提供了出色的除錯支援。你可以透過單擊程式碼行號左側來建立斷點,並使用 F5 開始除錯。這將幫助你逐步執行程式碼並檢查變數。

廣告