allennlp Memory consumption of crf-tagger keeps increasing over time

sy5wg1nm  于 4个月前  发布在  其他
关注(0)|答案(2)|浏览(55)

描述bug

我正在尝试使用crf-tagger进行命名实体识别(NER)任务。我使用bert-tokenizer对句子进行了预分词。句子和标签都是基于word-piece的,当发送到crf-tagger时。此外,我还从master安装了allennlp。
问题:训练过程中内存消耗不断增加。

重现问题

我的训练配置如下:
{ "dataset_reader": { "type": "wordpiece_bert_crf_reader", "tokenizers":{ "bert_tokenizer":{ "type": "whitespace" } }, "token_indexers": { "transformer": { "type": "pretrained_transformer_mismatched", "model_name": "/home/mhxia/whou/workspace/bert-base-uncased/", "max_length":510 } } }, "train_data_path": "/home/mhxia/whou/workspace/code_repo/space12-ner/data/processed_data/ensemble_data/ner_bert_tokenized/train_1.jsonl", "validation_data_path": "/home/mhxia/whou/workspace/code_repo/space12-ner/data/processed_data/ensemble_data/ner_bert_tokenized/dev_1.jsonl", "model": { "type": "crf_tagger", "include_start_end_transitions": false, "text_field_embedder": { "token_embedders": { "transformer": { "type": "pretrained_transformer_mismatched", "model_name": "/home/mhxia/whou/workspace/bert-base-uncased/", "max_length":510 } } }, "encoder": { "type": "pass_through", "input_dim": 768 } }, "data_loader": {"batch_size": 2}, "trainer": { "optimizer": "adam", "num_epochs": 5, "cuda_device":0 } }

预期行为

希望你能修复这个bug。

系统信息(请填写以下信息):

  • 操作系统:Linux
  • Python版本:3.6.9
  • AllenNLP版本:从master安装的
  • PyTorch版本:1.4.0
332nm8kg

332nm8kg1#

@ksboy,在训练过程中是否遇到了OOME(内存溢出)问题,还是仅仅是内存使用量增加?

e37o9pze

e37o9pze2#

内存使用量不断增加,直到OOME(Out of Memory Error)发生。

相关问题