| { | |
| "best_global_step": 200, | |
| "best_metric": 1.1663204431533813, | |
| "best_model_checkpoint": "./llama3-medical-ner-lora/checkpoint-200", | |
| "epoch": 1.3333333333333333, | |
| "eval_steps": 50, | |
| "global_step": 200, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.06666666666666667, | |
| "grad_norm": 0.7053351402282715, | |
| "learning_rate": 0.00012857142857142858, | |
| "loss": 2.4398, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.13333333333333333, | |
| "grad_norm": 0.46818673610687256, | |
| "learning_rate": 0.0001999351082025363, | |
| "loss": 1.6867, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.2, | |
| "grad_norm": 0.34885916113853455, | |
| "learning_rate": 0.00019941647902696973, | |
| "loss": 1.5225, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 0.3406175374984741, | |
| "learning_rate": 0.0001983819121846225, | |
| "loss": 1.5177, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.3333333333333333, | |
| "grad_norm": 0.3779544532299042, | |
| "learning_rate": 0.00019683677672505253, | |
| "loss": 1.5086, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.3333333333333333, | |
| "eval_loss": 1.456114411354065, | |
| "eval_runtime": 27.5139, | |
| "eval_samples_per_second": 10.904, | |
| "eval_steps_per_second": 2.726, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "grad_norm": 0.41722962260246277, | |
| "learning_rate": 0.00019478909137505112, | |
| "loss": 1.4848, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.4666666666666667, | |
| "grad_norm": 0.3926642835140228, | |
| "learning_rate": 0.00019224948292418192, | |
| "loss": 1.3901, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 0.3990253806114197, | |
| "learning_rate": 0.00018923113107536247, | |
| "loss": 1.3618, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 0.6, | |
| "grad_norm": 0.3796849548816681, | |
| "learning_rate": 0.00018574970004669466, | |
| "loss": 1.3713, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "grad_norm": 0.42293697595596313, | |
| "learning_rate": 0.00018182325727950777, | |
| "loss": 1.3782, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "eval_loss": 1.3570587635040283, | |
| "eval_runtime": 27.5406, | |
| "eval_samples_per_second": 10.893, | |
| "eval_steps_per_second": 2.723, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.7333333333333333, | |
| "grad_norm": 0.4514768123626709, | |
| "learning_rate": 0.0001774721796744916, | |
| "loss": 1.3654, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 0.4065796136856079, | |
| "learning_rate": 0.00017271904784252145, | |
| "loss": 1.3244, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 0.8666666666666667, | |
| "grad_norm": 0.4500172734260559, | |
| "learning_rate": 0.00016758852891897864, | |
| "loss": 1.3709, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 0.9333333333333333, | |
| "grad_norm": 0.44558724761009216, | |
| "learning_rate": 0.00016210724854971885, | |
| "loss": 1.3159, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "grad_norm": 0.4973081350326538, | |
| "learning_rate": 0.00015630365271303827, | |
| "loss": 1.298, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "eval_loss": 1.258914828300476, | |
| "eval_runtime": 27.5324, | |
| "eval_samples_per_second": 10.896, | |
| "eval_steps_per_second": 2.724, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 1.0666666666666667, | |
| "grad_norm": 0.6451838612556458, | |
| "learning_rate": 0.00015020786009473444, | |
| "loss": 1.1461, | |
| "step": 160 | |
| }, | |
| { | |
| "epoch": 1.1333333333333333, | |
| "grad_norm": 0.6279776096343994, | |
| "learning_rate": 0.0001438515057823849, | |
| "loss": 1.119, | |
| "step": 170 | |
| }, | |
| { | |
| "epoch": 1.2, | |
| "grad_norm": 0.7153634428977966, | |
| "learning_rate": 0.0001372675770900169, | |
| "loss": 1.0607, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 1.2666666666666666, | |
| "grad_norm": 0.6938378214836121, | |
| "learning_rate": 0.00013049024236518243, | |
| "loss": 1.1125, | |
| "step": 190 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "grad_norm": 0.6111797094345093, | |
| "learning_rate": 0.00012355467366687156, | |
| "loss": 1.0926, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "eval_loss": 1.1663204431533813, | |
| "eval_runtime": 27.5349, | |
| "eval_samples_per_second": 10.895, | |
| "eval_steps_per_second": 2.724, | |
| "step": 200 | |
| } | |
| ], | |
| "logging_steps": 10, | |
| "max_steps": 450, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 3, | |
| "save_steps": 50, | |
| "stateful_callbacks": { | |
| "EarlyStoppingCallback": { | |
| "args": { | |
| "early_stopping_patience": 3, | |
| "early_stopping_threshold": 0.0 | |
| }, | |
| "attributes": { | |
| "early_stopping_patience_counter": 0 | |
| } | |
| }, | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": false | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 2.718005218720973e+16, | |
| "train_batch_size": 4, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |