| { | |
| "best_global_step": 450, | |
| "best_metric": 0.9020379781723022, | |
| "best_model_checkpoint": "./llama3-medical-ner-lora/checkpoint-450", | |
| "epoch": 3.0, | |
| "eval_steps": 50, | |
| "global_step": 450, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.06666666666666667, | |
| "grad_norm": 0.7053351402282715, | |
| "learning_rate": 0.00012857142857142858, | |
| "loss": 2.4398, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.13333333333333333, | |
| "grad_norm": 0.46818673610687256, | |
| "learning_rate": 0.0001999351082025363, | |
| "loss": 1.6867, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.2, | |
| "grad_norm": 0.34885916113853455, | |
| "learning_rate": 0.00019941647902696973, | |
| "loss": 1.5225, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 0.3406175374984741, | |
| "learning_rate": 0.0001983819121846225, | |
| "loss": 1.5177, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.3333333333333333, | |
| "grad_norm": 0.3779544532299042, | |
| "learning_rate": 0.00019683677672505253, | |
| "loss": 1.5086, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.3333333333333333, | |
| "eval_loss": 1.456114411354065, | |
| "eval_runtime": 27.5139, | |
| "eval_samples_per_second": 10.904, | |
| "eval_steps_per_second": 2.726, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.4, | |
| "grad_norm": 0.41722962260246277, | |
| "learning_rate": 0.00019478909137505112, | |
| "loss": 1.4848, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.4666666666666667, | |
| "grad_norm": 0.3926642835140228, | |
| "learning_rate": 0.00019224948292418192, | |
| "loss": 1.3901, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 0.3990253806114197, | |
| "learning_rate": 0.00018923113107536247, | |
| "loss": 1.3618, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 0.6, | |
| "grad_norm": 0.3796849548816681, | |
| "learning_rate": 0.00018574970004669466, | |
| "loss": 1.3713, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "grad_norm": 0.42293697595596313, | |
| "learning_rate": 0.00018182325727950777, | |
| "loss": 1.3782, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.6666666666666666, | |
| "eval_loss": 1.3570587635040283, | |
| "eval_runtime": 27.5406, | |
| "eval_samples_per_second": 10.893, | |
| "eval_steps_per_second": 2.723, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.7333333333333333, | |
| "grad_norm": 0.4514768123626709, | |
| "learning_rate": 0.0001774721796744916, | |
| "loss": 1.3654, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 0.4065796136856079, | |
| "learning_rate": 0.00017271904784252145, | |
| "loss": 1.3244, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 0.8666666666666667, | |
| "grad_norm": 0.4500172734260559, | |
| "learning_rate": 0.00016758852891897864, | |
| "loss": 1.3709, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 0.9333333333333333, | |
| "grad_norm": 0.44558724761009216, | |
| "learning_rate": 0.00016210724854971885, | |
| "loss": 1.3159, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "grad_norm": 0.4973081350326538, | |
| "learning_rate": 0.00015630365271303827, | |
| "loss": 1.298, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "eval_loss": 1.258914828300476, | |
| "eval_runtime": 27.5324, | |
| "eval_samples_per_second": 10.896, | |
| "eval_steps_per_second": 2.724, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 1.0666666666666667, | |
| "grad_norm": 0.6451838612556458, | |
| "learning_rate": 0.00015020786009473444, | |
| "loss": 1.1461, | |
| "step": 160 | |
| }, | |
| { | |
| "epoch": 1.1333333333333333, | |
| "grad_norm": 0.6279776096343994, | |
| "learning_rate": 0.0001438515057823849, | |
| "loss": 1.119, | |
| "step": 170 | |
| }, | |
| { | |
| "epoch": 1.2, | |
| "grad_norm": 0.7153634428977966, | |
| "learning_rate": 0.0001372675770900169, | |
| "loss": 1.0607, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 1.2666666666666666, | |
| "grad_norm": 0.6938378214836121, | |
| "learning_rate": 0.00013049024236518243, | |
| "loss": 1.1125, | |
| "step": 190 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "grad_norm": 0.6111797094345093, | |
| "learning_rate": 0.00012355467366687156, | |
| "loss": 1.0926, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 1.3333333333333333, | |
| "eval_loss": 1.1663204431533813, | |
| "eval_runtime": 27.5349, | |
| "eval_samples_per_second": 10.895, | |
| "eval_steps_per_second": 2.724, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 1.4, | |
| "grad_norm": 0.6308093667030334, | |
| "learning_rate": 0.0001164968642345053, | |
| "loss": 1.1075, | |
| "step": 210 | |
| }, | |
| { | |
| "epoch": 1.4666666666666668, | |
| "grad_norm": 0.8013448715209961, | |
| "learning_rate": 0.00010935344169528132, | |
| "loss": 1.0514, | |
| "step": 220 | |
| }, | |
| { | |
| "epoch": 1.5333333333333332, | |
| "grad_norm": 0.7322355508804321, | |
| "learning_rate": 0.00010216147797926388, | |
| "loss": 1.0332, | |
| "step": 230 | |
| }, | |
| { | |
| "epoch": 1.6, | |
| "grad_norm": 0.7173798680305481, | |
| "learning_rate": 9.495829692869255e-05, | |
| "loss": 1.0117, | |
| "step": 240 | |
| }, | |
| { | |
| "epoch": 1.6666666666666665, | |
| "grad_norm": 0.8653221130371094, | |
| "learning_rate": 8.778128059995269e-05, | |
| "loss": 0.9753, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 1.6666666666666665, | |
| "eval_loss": 1.0643346309661865, | |
| "eval_runtime": 27.5238, | |
| "eval_samples_per_second": 10.9, | |
| "eval_steps_per_second": 2.725, | |
| "step": 250 | |
| }, | |
| { | |
| "epoch": 1.7333333333333334, | |
| "grad_norm": 0.9638155698776245, | |
| "learning_rate": 8.066767526343476e-05, | |
| "loss": 0.9969, | |
| "step": 260 | |
| }, | |
| { | |
| "epoch": 1.8, | |
| "grad_norm": 0.8768742680549622, | |
| "learning_rate": 7.365439810807608e-05, | |
| "loss": 0.9428, | |
| "step": 270 | |
| }, | |
| { | |
| "epoch": 1.8666666666666667, | |
| "grad_norm": 0.909724235534668, | |
| "learning_rate": 6.677784565372358e-05, | |
| "loss": 0.9334, | |
| "step": 280 | |
| }, | |
| { | |
| "epoch": 1.9333333333333333, | |
| "grad_norm": 0.9182987809181213, | |
| "learning_rate": 6.007370486559185e-05, | |
| "loss": 0.904, | |
| "step": 290 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "grad_norm": 1.0185834169387817, | |
| "learning_rate": 5.357676795106799e-05, | |
| "loss": 0.8939, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "eval_loss": 0.9832857251167297, | |
| "eval_runtime": 27.5386, | |
| "eval_samples_per_second": 10.894, | |
| "eval_steps_per_second": 2.723, | |
| "step": 300 | |
| }, | |
| { | |
| "epoch": 2.066666666666667, | |
| "grad_norm": 1.1974973678588867, | |
| "learning_rate": 4.7320751800004725e-05, | |
| "loss": 0.7159, | |
| "step": 310 | |
| }, | |
| { | |
| "epoch": 2.1333333333333333, | |
| "grad_norm": 1.19012451171875, | |
| "learning_rate": 4.133812300554555e-05, | |
| "loss": 0.6887, | |
| "step": 320 | |
| }, | |
| { | |
| "epoch": 2.2, | |
| "grad_norm": 1.067941427230835, | |
| "learning_rate": 3.5659929373563586e-05, | |
| "loss": 0.6917, | |
| "step": 330 | |
| }, | |
| { | |
| "epoch": 2.2666666666666666, | |
| "grad_norm": 1.030847191810608, | |
| "learning_rate": 3.0315638795123725e-05, | |
| "loss": 0.6972, | |
| "step": 340 | |
| }, | |
| { | |
| "epoch": 2.3333333333333335, | |
| "grad_norm": 1.0184621810913086, | |
| "learning_rate": 2.5332986318163886e-05, | |
| "loss": 0.6541, | |
| "step": 350 | |
| }, | |
| { | |
| "epoch": 2.3333333333333335, | |
| "eval_loss": 0.9404451251029968, | |
| "eval_runtime": 27.5475, | |
| "eval_samples_per_second": 10.89, | |
| "eval_steps_per_second": 2.723, | |
| "step": 350 | |
| }, | |
| { | |
| "epoch": 2.4, | |
| "grad_norm": 0.9394258856773376, | |
| "learning_rate": 2.073783021204251e-05, | |
| "loss": 0.6777, | |
| "step": 360 | |
| }, | |
| { | |
| "epoch": 2.466666666666667, | |
| "grad_norm": 1.09059739112854, | |
| "learning_rate": 1.6554017771927187e-05, | |
| "loss": 0.6803, | |
| "step": 370 | |
| }, | |
| { | |
| "epoch": 2.533333333333333, | |
| "grad_norm": 1.261212944984436, | |
| "learning_rate": 1.2803261559454904e-05, | |
| "loss": 0.6732, | |
| "step": 380 | |
| }, | |
| { | |
| "epoch": 2.6, | |
| "grad_norm": 1.0329058170318604, | |
| "learning_rate": 9.505026721931897e-06, | |
| "loss": 0.6604, | |
| "step": 390 | |
| }, | |
| { | |
| "epoch": 2.6666666666666665, | |
| "grad_norm": 1.0532472133636475, | |
| "learning_rate": 6.676429974848563e-06, | |
| "loss": 0.6249, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 2.6666666666666665, | |
| "eval_loss": 0.9091228246688843, | |
| "eval_runtime": 27.5284, | |
| "eval_samples_per_second": 10.898, | |
| "eval_steps_per_second": 2.724, | |
| "step": 400 | |
| }, | |
| { | |
| "epoch": 2.7333333333333334, | |
| "grad_norm": 1.0497102737426758, | |
| "learning_rate": 4.332150771955845e-06, | |
| "loss": 0.6217, | |
| "step": 410 | |
| }, | |
| { | |
| "epoch": 2.8, | |
| "grad_norm": 1.1161044836044312, | |
| "learning_rate": 2.48435512389964e-06, | |
| "loss": 0.6738, | |
| "step": 420 | |
| }, | |
| { | |
| "epoch": 2.8666666666666667, | |
| "grad_norm": 1.052836298942566, | |
| "learning_rate": 1.1426324607691774e-06, | |
| "loss": 0.67, | |
| "step": 430 | |
| }, | |
| { | |
| "epoch": 2.9333333333333336, | |
| "grad_norm": 1.1065914630889893, | |
| "learning_rate": 3.139458662207995e-07, | |
| "loss": 0.6281, | |
| "step": 440 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "grad_norm": 0.9851149320602417, | |
| "learning_rate": 2.5959414452270124e-09, | |
| "loss": 0.6629, | |
| "step": 450 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "eval_loss": 0.9020379781723022, | |
| "eval_runtime": 27.5906, | |
| "eval_samples_per_second": 10.873, | |
| "eval_steps_per_second": 2.718, | |
| "step": 450 | |
| } | |
| ], | |
| "logging_steps": 10, | |
| "max_steps": 450, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 3, | |
| "save_steps": 50, | |
| "stateful_callbacks": { | |
| "EarlyStoppingCallback": { | |
| "args": { | |
| "early_stopping_patience": 3, | |
| "early_stopping_threshold": 0.0 | |
| }, | |
| "attributes": { | |
| "early_stopping_patience_counter": 0 | |
| } | |
| }, | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 6.109447492480205e+16, | |
| "train_batch_size": 4, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |