Huggingface Transformers
目次
Transformers は、PyTorch, TensorFlow, JAX に対応した機械学習ライブラリで、最先端の学習済みモデルを簡単にダウンロードして利用できるように設計されています。このフレームワークは、自然言語処理やコンピュータビジョン、音声認識などさまざまな分野でのタスクをサポートし、柔軟なフレームワーク間相互運用性と本番環境向けのデプロイメント機能(ONNX や TorchScript 形式へのエクスポート)を提供します。
インストール
pipでのインストール
- 前提として、Pytorchまたはtensorflowをインストールしておく必要があります、さらに、flaxもサポートされています。
これで、次のコマンドで🤗 Transformersをインストールする準備が整いました:
pip install transformers
CPU対応のみ必要な場合、🤗 TransformersとDeep Learningライブラリを1行でインストールできるようになっていて便利です。例えば、🤗 TransformersとPyTorchを以下のように一緒にインストールできます:
pip install transformers[torch]
🤗 TransformersとTensorFlow 2.0:
pip install transformers[tf-cpu]
🤗 TransformersとFlax:
pip install transformers[flax]
最後に、以下のコマンドを実行することで🤗 Transformersが正しくインストールされているかを確認します。学習済みモデルがダウンロードされます:
python -c "from transformers import pipeline; print(pipeline('sentiment-analysis')('we love you'))"
その後、ラベルとスコアが出力されます:
[{'label': 'POSITIVE', 'score': 0.9998704791069031}]
編集可能なインストール
必要に応じて、編集可能なインストールをします:
- ソースコードの
mainバージョンを使います。 - 🤗 Transformersにコントリビュートし、コードの変更をテストする必要があります。
以下のコマンドでレポジトリをクローンして、🤗 Transformersをインストールします:
git clone https://github.com/huggingface/transformers.git
cd transformers
pip install -e .
キャッシュの設定
- 学習済みモデルはデフォルトで
~/.cache/huggingface/hubにキャッシュされます。 - Windowsでは、
C:\Users\username\.cache\huggingface\hubがデフォルトです。 - キャッシュディレクトリは以下の環境変数で変更可能(優先順位順):
HF_HUB_CACHEorTRANSFORMERS_CACHEHF_HOMEXDG_CACHE_HOME+/huggingface
⚠️ 過去のバージョンで
PYTORCH_TRANSFORMERS_CACHEまたはPYTORCH_PRETRAINED_BERT_CACHEを使用していた場合、それらが引き続き使用されます(明示的にTRANSFORMERS_CACHEを設定していない限り)。
オフラインモード
- オフライン環境でも動作させるには、以下のように環境変数を設定します:
HF_HUB_OFFLINE=1: HubからダウンロードしないHF_DATASETS_OFFLINE=1: データセットもオフライン対応
例:
HF_DATASETS_OFFLINE=1 HF_HUB_OFFLINE=1 \
python examples/pytorch/translation/run_translation.py --model_name_or_path google-t5/t5-small --dataset_name wmt16 --dataset_config ro-en ...
オフラインでのモデルトークナイザー利用方法
Model Hub UI から手動でダウンロード
- Webインターフェース上の ↓ アイコンをクリックしてファイルを取得。
PreTrainedModel.from_pretrained() & save_pretrained() ワークフロー
前もってオンライン環境でダウンロード&保存:
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("bigscience/T0_3B")
model = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0_3B")
tokenizer.save_pretrained("./your/path/bigscience_t0")
model.save_pretrained("./your/path/bigscience_t0")
オフライン環境で再読み込み:
tokenizer = AutoTokenizer.from_pretrained("./your/path/bigscience_t0")
model = AutoModel.from_pretrained("./your/path/bigscience_t0")
huggingface_hubライブラリを使用したプログラム的なダウンロード
インストール:
python -m pip install huggingface_hub
特定のファイルを指定してダウンロード:
from huggingface_hub import hf_hub_download
hf_hub_download(repo_id="bigscience/T0_3B", filename="config.json", cache_dir="./your/path/bigscience_t0")
ダウンロード後にロード:
from transformers import AutoConfig
config = AutoConfig.from_pretrained("./your/path/bigscience_t0/config.json")
使い方
主要コンポーネント概要
HuggingFace Transformers はモジュール化されたライブラリで、以下のような主要なコンポーネントが含まれています:
AutoTokenizer: テキストの分詞やエンコーディングに使用されます。AutoModel: 学習済みモデルを読み込むための基本クラスです。Trainer,TrainingArguments: モデルのファインチューニングを行うための高レベルツールです。Pipeline: 前処理から推論、後処理までの全フローをカプセル化しており、素早く開発を開始できます。
簡単な推論コード例:
from transformers import AutoTokenizer, AutoModel
def basic_usage_example():
# Tokenizerとモデルのロード
tokenizer = AutoTokenizer.from_pretrained('bert-base-chinese')
model = AutoModel.from_pretrained('bert-base-chinese')
# 入力テキストの前処理
text = "こんにちは世界!"
inputs = tokenizer(text, return_tensors="pt") # PyTorchテンソルとして返す
# 推論実行
outputs = model(**inputs)
# 隠れ層の最終出力を返す
return outputs.last_hidden_state
Pipeline
pipeline は非常に簡単にさまざまなNLPタスクを実行できるインターフェースです。
サンプルコード:
from transformers import pipeline
def pipeline_examples():
"""代表的なタスクのPipeline例"""
# 感情分析
sentiment_analyzer = pipeline("sentiment-analysis")
result = sentiment_analyzer("この製品はとても使いやすい!")
print(f"感情分析結果:{result}")
# テキスト生成(GPT-2)
generator = pipeline("text-generation", model="gpt2-chinese")
text = generator("人工知能は今", max_length=50)
print(f"生成されたテキスト:{text}")
# 固有表現抽出(NER)
ner = pipeline("ner", model="bert-base-chinese")
entities = ner("華為の本社は深圳にあります")
print(f"認識された固有名詞:{entities}")
# 質問応答システム
qa = pipeline("question-answering", model="bert-base-chinese")
context = "北京は中国の首都であり、上海は最大の経済都市です。"
question = "中国の首都是はどこですか?"
answer = qa(question=question, context=context)
print(f"質問応答結果:{answer}")
if __name__ == "__main__":
pipeline_examples()
Tokenizers
Tokenizers は自然言語処理(NLP)においてテキストをモデルが理解できる形式に変換するための基本的なコンポーネントです。
HuggingFace Transformers では、多様な言語やモデルに対応した柔軟で高性能な Tokenizer API を提供しています。
分詞器の主な機能
Tokenize
- テキストを単語、サブワード、文字などの「トークン」に分割します。
- 例:
"これはテスト"→["これ", "は", "テスト"]
tokens = tokenizer.tokenize("これはテスト")
Encode
- トークンを数値 ID(語彙ID)に変換します。
- 例:
["これ", "は", "テスト"]→[345, 890, 1234]
token_ids = tokenizer.convert_tokens_to_ids(tokens)
Encode + 特殊タグ付加
- 入力に特殊タグ([CLS], [SEP]など)を追加し、テンソル形式で出力します。
encoded = tokenizer(text, return_tensors="pt")
Decode
- 数値 ID を再び人間可読なテキストに戻します。
decoded_text = tokenizer.decode(encoded["input_ids"][0])
分詞器の高階機能
特殊トークンと語彙情報
- [CLS]: 分類タスク用の特別トークン
- [SEP]: 文の区切りを示すトークン
print(f"CLS标记: {tokenizer.cls_token}") # [CLS]
print(f"SEP标记: {tokenizer.sep_token}") # [SEP]
print(f"词表大小: {len(tokenizer)}") # 語彙数
print(f"特殊标记映射: {tokenizer.special_tokens_map}")
バッチ処理と長文対応
複数文を一度に処理し、パディングと切り詰めも自動化できます。
batch_encoding = tokenizer(texts, padding=True, truncation=True, return_tensors="pt")
長いテキストを最大長で自動的に切り詰めて処理します。
truncated = tokenizer(long_text, max_length=128, truncation=True)
実装例
from transformers import AutoTokenizer
def tokenizer_basics():
# 分詞器ロード
tokenizer = AutoTokenizer.from_pretrained("bert-base-chinese")
# テキスト入力
text = "これはテスト"
# 1. 分詞
tokens = tokenizer.tokenize(text)
print(f"Result: {tokens}")
# 2. Token IDs へ変換
token_ids = tokenizer.convert_tokens_to_ids(tokens)
print(f"Token IDs: {token_ids}")
# 3. 編碼(特殊タグ含む)
encoded = tokenizer(text, return_tensors="pt")
print(f"Encoding result: {encoded}")
# 4. 解码
decoded = tokenizer.decode(encoded["input_ids"][0])
print(f"Decoding result: {decoded}")
# 特殊トークン情報
def tokenizer_special_tokens():
tokenizer = AutoTokenizer.from_pretrained("bert-base-chinese")
print(f"CLS map: {tokenizer.cls_token}")
print(f"SEP map: {tokenizer.sep_token}")
print(f"tokenizer length: {len(tokenizer)}")
print(f"spcial token map: {tokenizer.special_tokens_map}")
# バッチ・長文処理
def batch_and_long_text_processing():
tokenizer = AutoTokenizer.from_pretrained("bert-base-chinese")
texts = ["this is the first text", "this is the second text"]
batch_encoding = tokenizer(texts, padding=True, truncation=True, return_tensors="pt")
print(f"batch processing result: {batch_encoding}")
long_text = "this is a " + "very very very very very very very very very very " * 50 + "long text。"""
truncated = tokenizer(long_text, max_length=128, truncation=True)
print(f"Result: {truncated['input_ids']}")
# 実行例
if __name__ == "__main__":
tokenizer_basics()
tokenizer_special_tokens()
batch_and_long_text_processing()
Models
HuggingFace Transformers では、モデル (Model) が推論や学習の中心となるコンポーネントです。
このライブラリは、さまざまなタスクに対応する統一されたインターフェースを提供しており、以下のような主要なクラスがあります:
AutoModel: 基本的なモデル構造(すべてのタスクに汎用的に使用可能)- タスク特化型モデル:
AutoModelForSequenceClassification: 文章分類AutoModelForQuestionAnswering: 質問応答AutoModelForTokenClassification: 固有表現抽出(NER)AutoModelForSeq2SeqLM: シーケンス生成(翻訳・要約など)
文書分類(Sequence Classification)
BERTなどのモデルを使って文書の感情極性(ポジティブ/ネガティブ)などを分類できます。
from transformers import AutoModelForSequenceClassification
import torch
def text_classification_example():
# 分類用モデルのロード(ラベル数=2)
model = AutoModelForSequenceClassification.from_pretrained("bert-base-chinese", num_labels=2)
# 入力テキスト
text = "この商品は非常に便利です。"
inputs = tokenizer(text, return_tensors="pt")
# 推論
outputs = model(**inputs)
probabilities = torch.softmax(outputs.logits, dim=-1)
print(f"Result: {probabilities}")
質問応答(Question Answering)
BERTベースの QA モデルを使用して、ある文章の中から質問に対する答えを抽出します。
from transformers import AutoModelForQuestionAnswering
def question_answering_example():
# 質問応答モデルのロード
model = AutoModelForQuestionAnswering.from_pretrained("bert-base-chinese")
# 質問と上下文
context = "This is an apple. Apple is a fruit."
question = "What is this?"
# 入力をエンコード
inputs = tokenizer(question, context, return_tensors="pt")
# 推論
outputs = model(**inputs)
start_index = torch.argmax(outputs.start_logits)
end_index = torch.argmax(outputs.end_logits)
answer = tokenizer.decode(inputs["input_ids"][0][start_index:end_index+1])
print(f"答案: {answer}")
主なモデルクラス一覧
| クラス名 | 使用用途 |
|---|---|
AutoModel |
一般的なシーケンス表現の取得 |
AutoModelForSequenceClassification |
文章分類(感情分析など) |
AutoModelForQuestionAnswering |
質問応答(SQuADなど) |
AutoModelForTokenClassification |
固有表現抽出(NER) |
AutoModelForSeq2SeqLM |
シーケンス間変換(翻訳、要約) |
AutoModelForCausalLM |
言語生成(GPT系) |
実装フローまとめ
- 分詞器のロード:
AutoTokenizer.from_pretrained(...) - モデルのロード:
AutoModel.from_pretrained(...)or タスク専用モデル - 入力処理:
tokenizer(text, return_tensors="pt") - 推論実行:
model(**inputs) - 結果の解釈: logits, hidden states, etc.
Configuration
Configuration は HuggingFace Transformers における モデル構造と挙動を定義するための重要なコンポーネントです。
このクラスを使用すると:
- モデルの基本的なパラメータ(層数、隠れ層のサイズなど)を確認できます。
- タスクやリソースに応じてカスタム構成を作成できます。
- 設定を保存・再利用することで、複数環境での一貫性を維持できます。
基本設定のロードと確認
各事前学習済みモデルには、そのモデルに関するデフォルト設定が含まれています。
この設定は AutoConfig.from_pretrained(...) を使って取得できます。
from transformers import AutoConfig
def load_model_config():
# 事前学習済みモデルの設定をロード
config = AutoConfig.from_pretrained("bert-base-chinese")
# 主なパラメータの表示
print(f"隐藏层大小: {config.hidden_size}") # 隠れ層の次元数
print(f"注意力头数: {config.num_attention_heads}") # 注意力ヘッド数
print(f"隐藏层数量: {config.num_hidden_layers}") # Transformer 層数
print(f"最大位置编码: {config.max_position_embeddings}")# 最大シーケンス長
このような設定情報は、モデルの性能やメモリ使用量に影響を与えるため、タスクに合わせた調整が必要です。
カスタム設定の作成
特定の用途や制約(例:少ないGPUメモリ、高速推論)に合わせて、モデル構造を変更した独自の設定を作成できます。
from transformers import PretrainedConfig, AutoModel
def create_custom_config():
# カスタム設定の作成
custom_config = PretrainedConfig(
vocab_size=21128, # 語彙数
hidden_size=512, # 隠れ層のサイズ(小さめ)
num_hidden_layers=6, # 層数を減らして軽量化
num_attention_heads=8, # 注意力ヘッド数も減らす
intermediate_size=2048, # 中間層のサイズ
max_position_embeddings=256, # 最大シーケンス長を短く
)
# カスタム設定でモデルを初期化
model = AutoModel.from_config(custom_config)
print(f"モデル配置情報: {model.config}")
このようにして、小さなモデルや軽量モデルをゼロから構築することが可能です。
設定の保存と再読み込み
カスタム設定をファイルに保存することで、後で再利用したり共有したりできます。
def save_and_load_config():
# 事前学習済み設定をロード
config = AutoConfig.from_pretrained("bert-base-chinese")
# 必要に応じて設定を変更
config.hidden_dropout_prob = 0.2
config.attention_probs_dropout_prob = 0.2
# 設定をディレクトリに保存
config.save_pretrained("./custom_config")
# 保存した設定を再ロード
new_config = AutoConfig.from_pretrained("./custom_config")
print(f"加载的配置: {new_config}")
これにより、訓練済みモデルと同様に、設定ファイル(config.json)として保存・共有できます。
主な設定パラメータ一覧
| パラメータ名 | 内容 |
|---|---|
vocab_size |
語彙数 |
hidden_size |
隠れ層の次元数 |
num_hidden_layers |
Transformer 層の数 |
num_attention_heads |
注意力ヘッド数 |
intermediate_size |
Feed-forward 層の中間次元 |
max_position_embeddings |
最大シーケンス長 |
hidden_dropout_prob |
ドロップアウト率 |
attention_probs_dropout_prob |
注意力ドロップアウト率 |
実用的な設定と最適化技法
モデルロード時の最適化
以下の方法でメモリ効率と推論速度を向上させることができます:
from transformers import AutoModel
import torch
def setup_optimization():
"""モデルの最適化設定"""
model = AutoModel.from_pretrained(
"bert-base-chinese",
device_map="auto", # 自動的にGPU/CPUに割り当て
torch_dtype=torch.float16, # 半精度を使用してメモリ削減
low_cpu_mem_usage=True # CPUメモリ消費を抑える
)
model.eval() # 推論モードへ切り替え
return model
バッチ処理の最適化
大規模なテキストデータを扱う際には、バッチ処理により処理速度が向上します。長文の分割も自動化しています。
from typing import List
def batch_process(texts: List[str], batch_size: int, max_length: int) -> List[List[str]]:
"""長文を分割し、指定バッチサイズで処理する"""
processed_texts = []
for text in texts:
if len(text) > max_length:
chunks = [text[i:i+max_length] for i in range(0, len(text), max_length)]
processed_texts.extend(chunks)
else:
processed_texts.append(text)
return [processed_texts[i:i+batch_size] for i in range(0, len(processed_texts), batch_size)]
参考
- Hubからのファイルダウンロード詳細については Transformers official doc を参照。
- Hugging Face Tokenizers Documentation