| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 0.0012437810945273632, | |
| "eval_steps": 1000, | |
| "global_step": 50, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0, | |
| "loss": 1.5524, | |
| "step": 1 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0, | |
| "loss": 2.1401, | |
| "step": 2 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0, | |
| "loss": 1.6641, | |
| "step": 3 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 8.613531161467861e-05, | |
| "loss": 1.7911, | |
| "step": 4 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00013652123889719707, | |
| "loss": 1.8097, | |
| "step": 5 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00017227062322935723, | |
| "loss": 1.6165, | |
| "step": 6 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0002, | |
| "loss": 1.427, | |
| "step": 7 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0002, | |
| "loss": 1.4679, | |
| "step": 8 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001979166666666667, | |
| "loss": 1.7316, | |
| "step": 9 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00019583333333333334, | |
| "loss": 1.6251, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00019375000000000002, | |
| "loss": 1.499, | |
| "step": 11 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00019166666666666667, | |
| "loss": 1.7861, | |
| "step": 12 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00018958333333333332, | |
| "loss": 1.6518, | |
| "step": 13 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001875, | |
| "loss": 1.7968, | |
| "step": 14 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00018541666666666668, | |
| "loss": 1.606, | |
| "step": 15 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00018333333333333334, | |
| "loss": 1.6012, | |
| "step": 16 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00018125000000000001, | |
| "loss": 1.7568, | |
| "step": 17 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001791666666666667, | |
| "loss": 1.7675, | |
| "step": 18 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00017708333333333335, | |
| "loss": 1.7494, | |
| "step": 19 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.000175, | |
| "loss": 1.5306, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00017291666666666668, | |
| "loss": 1.8605, | |
| "step": 21 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00017083333333333333, | |
| "loss": 1.5694, | |
| "step": 22 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00016875, | |
| "loss": 1.3855, | |
| "step": 23 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001666666666666667, | |
| "loss": 1.3716, | |
| "step": 24 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00016458333333333334, | |
| "loss": 1.6058, | |
| "step": 25 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00016250000000000002, | |
| "loss": 1.5173, | |
| "step": 26 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00016041666666666667, | |
| "loss": 1.7171, | |
| "step": 27 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015833333333333332, | |
| "loss": 1.8715, | |
| "step": 28 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015625, | |
| "loss": 1.4981, | |
| "step": 29 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015416666666666668, | |
| "loss": 1.6222, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015208333333333333, | |
| "loss": 1.7787, | |
| "step": 31 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015000000000000001, | |
| "loss": 1.4774, | |
| "step": 32 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001479166666666667, | |
| "loss": 1.7575, | |
| "step": 33 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00014583333333333335, | |
| "loss": 1.6722, | |
| "step": 34 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00014375, | |
| "loss": 1.4777, | |
| "step": 35 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00014166666666666668, | |
| "loss": 1.6079, | |
| "step": 36 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00013958333333333333, | |
| "loss": 1.5258, | |
| "step": 37 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001375, | |
| "loss": 1.5234, | |
| "step": 38 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001354166666666667, | |
| "loss": 1.4631, | |
| "step": 39 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00013333333333333334, | |
| "loss": 1.5716, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00013125000000000002, | |
| "loss": 1.6012, | |
| "step": 41 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00012916666666666667, | |
| "loss": 1.5765, | |
| "step": 42 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00012708333333333332, | |
| "loss": 1.4193, | |
| "step": 43 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.000125, | |
| "loss": 1.2805, | |
| "step": 44 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00012291666666666668, | |
| "loss": 1.7007, | |
| "step": 45 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00012083333333333333, | |
| "loss": 1.4336, | |
| "step": 46 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011875, | |
| "loss": 1.4623, | |
| "step": 47 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011666666666666668, | |
| "loss": 1.6087, | |
| "step": 48 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011458333333333333, | |
| "loss": 1.4661, | |
| "step": 49 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011250000000000001, | |
| "loss": 1.3767, | |
| "step": 50 | |
| } | |
| ], | |
| "logging_steps": 1, | |
| "max_steps": 101, | |
| "num_train_epochs": 1, | |
| "save_steps": 50, | |
| "total_flos": 3065802843488256.0, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |