| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 0.0024875621890547263, | |
| "eval_steps": 1000, | |
| "global_step": 100, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0, | |
| "loss": 1.5524, | |
| "step": 1 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0, | |
| "loss": 2.1401, | |
| "step": 2 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0, | |
| "loss": 1.6641, | |
| "step": 3 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 8.613531161467861e-05, | |
| "loss": 1.7911, | |
| "step": 4 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00013652123889719707, | |
| "loss": 1.8097, | |
| "step": 5 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00017227062322935723, | |
| "loss": 1.6165, | |
| "step": 6 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0002, | |
| "loss": 1.427, | |
| "step": 7 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0002, | |
| "loss": 1.4679, | |
| "step": 8 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001979166666666667, | |
| "loss": 1.7316, | |
| "step": 9 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00019583333333333334, | |
| "loss": 1.6251, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00019375000000000002, | |
| "loss": 1.499, | |
| "step": 11 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00019166666666666667, | |
| "loss": 1.7861, | |
| "step": 12 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00018958333333333332, | |
| "loss": 1.6518, | |
| "step": 13 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001875, | |
| "loss": 1.7968, | |
| "step": 14 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00018541666666666668, | |
| "loss": 1.606, | |
| "step": 15 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00018333333333333334, | |
| "loss": 1.6012, | |
| "step": 16 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00018125000000000001, | |
| "loss": 1.7568, | |
| "step": 17 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001791666666666667, | |
| "loss": 1.7675, | |
| "step": 18 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00017708333333333335, | |
| "loss": 1.7494, | |
| "step": 19 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.000175, | |
| "loss": 1.5306, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00017291666666666668, | |
| "loss": 1.8605, | |
| "step": 21 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00017083333333333333, | |
| "loss": 1.5694, | |
| "step": 22 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00016875, | |
| "loss": 1.3855, | |
| "step": 23 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001666666666666667, | |
| "loss": 1.3716, | |
| "step": 24 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00016458333333333334, | |
| "loss": 1.6058, | |
| "step": 25 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00016250000000000002, | |
| "loss": 1.5173, | |
| "step": 26 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00016041666666666667, | |
| "loss": 1.7171, | |
| "step": 27 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015833333333333332, | |
| "loss": 1.8715, | |
| "step": 28 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015625, | |
| "loss": 1.4981, | |
| "step": 29 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015416666666666668, | |
| "loss": 1.6222, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015208333333333333, | |
| "loss": 1.7787, | |
| "step": 31 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00015000000000000001, | |
| "loss": 1.4774, | |
| "step": 32 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001479166666666667, | |
| "loss": 1.7575, | |
| "step": 33 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00014583333333333335, | |
| "loss": 1.6722, | |
| "step": 34 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00014375, | |
| "loss": 1.4777, | |
| "step": 35 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00014166666666666668, | |
| "loss": 1.6079, | |
| "step": 36 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00013958333333333333, | |
| "loss": 1.5258, | |
| "step": 37 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001375, | |
| "loss": 1.5234, | |
| "step": 38 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001354166666666667, | |
| "loss": 1.4631, | |
| "step": 39 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00013333333333333334, | |
| "loss": 1.5716, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00013125000000000002, | |
| "loss": 1.6012, | |
| "step": 41 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00012916666666666667, | |
| "loss": 1.5765, | |
| "step": 42 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00012708333333333332, | |
| "loss": 1.4193, | |
| "step": 43 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.000125, | |
| "loss": 1.2805, | |
| "step": 44 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00012291666666666668, | |
| "loss": 1.7007, | |
| "step": 45 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00012083333333333333, | |
| "loss": 1.4336, | |
| "step": 46 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011875, | |
| "loss": 1.4623, | |
| "step": 47 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011666666666666668, | |
| "loss": 1.6087, | |
| "step": 48 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011458333333333333, | |
| "loss": 1.4661, | |
| "step": 49 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011250000000000001, | |
| "loss": 1.3767, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00011041666666666668, | |
| "loss": 1.7195, | |
| "step": 51 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00010833333333333333, | |
| "loss": 1.6413, | |
| "step": 52 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00010625000000000001, | |
| "loss": 1.6367, | |
| "step": 53 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00010416666666666667, | |
| "loss": 1.4327, | |
| "step": 54 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.00010208333333333333, | |
| "loss": 1.631, | |
| "step": 55 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 0.0001, | |
| "loss": 1.5181, | |
| "step": 56 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 9.791666666666667e-05, | |
| "loss": 1.8171, | |
| "step": 57 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 9.583333333333334e-05, | |
| "loss": 1.4735, | |
| "step": 58 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 9.375e-05, | |
| "loss": 1.5766, | |
| "step": 59 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 9.166666666666667e-05, | |
| "loss": 1.9341, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 8.958333333333335e-05, | |
| "loss": 1.5104, | |
| "step": 61 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 8.75e-05, | |
| "loss": 1.714, | |
| "step": 62 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 8.541666666666666e-05, | |
| "loss": 1.3207, | |
| "step": 63 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 8.333333333333334e-05, | |
| "loss": 1.7229, | |
| "step": 64 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 8.125000000000001e-05, | |
| "loss": 1.6023, | |
| "step": 65 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 7.916666666666666e-05, | |
| "loss": 1.3084, | |
| "step": 66 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 7.708333333333334e-05, | |
| "loss": 1.5988, | |
| "step": 67 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 7.500000000000001e-05, | |
| "loss": 1.5514, | |
| "step": 68 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 7.291666666666667e-05, | |
| "loss": 1.7091, | |
| "step": 69 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 7.083333333333334e-05, | |
| "loss": 1.8106, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 6.875e-05, | |
| "loss": 1.8169, | |
| "step": 71 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 6.666666666666667e-05, | |
| "loss": 1.7487, | |
| "step": 72 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 6.458333333333334e-05, | |
| "loss": 1.1579, | |
| "step": 73 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 6.25e-05, | |
| "loss": 1.6615, | |
| "step": 74 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 6.041666666666667e-05, | |
| "loss": 1.6043, | |
| "step": 75 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 5.833333333333334e-05, | |
| "loss": 1.6514, | |
| "step": 76 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 5.6250000000000005e-05, | |
| "loss": 1.6672, | |
| "step": 77 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 5.4166666666666664e-05, | |
| "loss": 1.4914, | |
| "step": 78 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 5.208333333333334e-05, | |
| "loss": 1.7884, | |
| "step": 79 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 5e-05, | |
| "loss": 1.5897, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 4.791666666666667e-05, | |
| "loss": 1.7673, | |
| "step": 81 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 4.5833333333333334e-05, | |
| "loss": 1.3304, | |
| "step": 82 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 4.375e-05, | |
| "loss": 1.7114, | |
| "step": 83 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 4.166666666666667e-05, | |
| "loss": 1.3571, | |
| "step": 84 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 3.958333333333333e-05, | |
| "loss": 1.1445, | |
| "step": 85 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 3.7500000000000003e-05, | |
| "loss": 1.7399, | |
| "step": 86 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 3.541666666666667e-05, | |
| "loss": 1.4818, | |
| "step": 87 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 3.3333333333333335e-05, | |
| "loss": 1.6, | |
| "step": 88 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 3.125e-05, | |
| "loss": 1.5971, | |
| "step": 89 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 2.916666666666667e-05, | |
| "loss": 1.8175, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 2.7083333333333332e-05, | |
| "loss": 1.5264, | |
| "step": 91 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 2.5e-05, | |
| "loss": 1.3731, | |
| "step": 92 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 2.2916666666666667e-05, | |
| "loss": 1.3831, | |
| "step": 93 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 2.0833333333333336e-05, | |
| "loss": 1.6149, | |
| "step": 94 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 1.8750000000000002e-05, | |
| "loss": 1.7824, | |
| "step": 95 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 1.6666666666666667e-05, | |
| "loss": 1.5808, | |
| "step": 96 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 1.4583333333333335e-05, | |
| "loss": 1.6656, | |
| "step": 97 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 1.25e-05, | |
| "loss": 1.48, | |
| "step": 98 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 1.0416666666666668e-05, | |
| "loss": 1.5118, | |
| "step": 99 | |
| }, | |
| { | |
| "epoch": 0.0, | |
| "learning_rate": 8.333333333333334e-06, | |
| "loss": 1.8386, | |
| "step": 100 | |
| } | |
| ], | |
| "logging_steps": 1, | |
| "max_steps": 101, | |
| "num_train_epochs": 1, | |
| "save_steps": 50, | |
| "total_flos": 6150946682830848.0, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |