| { | |
| "best_global_step": null, | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 10.0, | |
| "eval_steps": 500, | |
| "global_step": 190, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.05333333333333334, | |
| "grad_norm": 2.9939651489257812, | |
| "learning_rate": 0.0, | |
| "loss": 5.926, | |
| "step": 1 | |
| }, | |
| { | |
| "epoch": 0.10666666666666667, | |
| "grad_norm": 3.11077618598938, | |
| "learning_rate": 4e-05, | |
| "loss": 6.0494, | |
| "step": 2 | |
| }, | |
| { | |
| "epoch": 0.16, | |
| "grad_norm": 3.065760374069214, | |
| "learning_rate": 8e-05, | |
| "loss": 5.6388, | |
| "step": 3 | |
| }, | |
| { | |
| "epoch": 0.21333333333333335, | |
| "grad_norm": 2.9126641750335693, | |
| "learning_rate": 0.00012, | |
| "loss": 5.4761, | |
| "step": 4 | |
| }, | |
| { | |
| "epoch": 0.26666666666666666, | |
| "grad_norm": 2.801853895187378, | |
| "learning_rate": 0.00016, | |
| "loss": 4.6481, | |
| "step": 5 | |
| }, | |
| { | |
| "epoch": 0.32, | |
| "grad_norm": 2.5619330406188965, | |
| "learning_rate": 0.0002, | |
| "loss": 4.1709, | |
| "step": 6 | |
| }, | |
| { | |
| "epoch": 0.37333333333333335, | |
| "grad_norm": 2.608609199523926, | |
| "learning_rate": 0.00019891891891891895, | |
| "loss": 3.5148, | |
| "step": 7 | |
| }, | |
| { | |
| "epoch": 0.4266666666666667, | |
| "grad_norm": 2.3922441005706787, | |
| "learning_rate": 0.00019783783783783784, | |
| "loss": 2.8294, | |
| "step": 8 | |
| }, | |
| { | |
| "epoch": 0.48, | |
| "grad_norm": 2.1659512519836426, | |
| "learning_rate": 0.00019675675675675678, | |
| "loss": 2.7794, | |
| "step": 9 | |
| }, | |
| { | |
| "epoch": 0.5333333333333333, | |
| "grad_norm": 1.8976439237594604, | |
| "learning_rate": 0.00019567567567567567, | |
| "loss": 2.2562, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.5866666666666667, | |
| "grad_norm": 1.6699284315109253, | |
| "learning_rate": 0.00019459459459459462, | |
| "loss": 1.8949, | |
| "step": 11 | |
| }, | |
| { | |
| "epoch": 0.64, | |
| "grad_norm": 1.5291804075241089, | |
| "learning_rate": 0.00019351351351351353, | |
| "loss": 1.7623, | |
| "step": 12 | |
| }, | |
| { | |
| "epoch": 0.6933333333333334, | |
| "grad_norm": 1.3941810131072998, | |
| "learning_rate": 0.00019243243243243245, | |
| "loss": 1.525, | |
| "step": 13 | |
| }, | |
| { | |
| "epoch": 0.7466666666666667, | |
| "grad_norm": 1.37143075466156, | |
| "learning_rate": 0.00019135135135135137, | |
| "loss": 1.6288, | |
| "step": 14 | |
| }, | |
| { | |
| "epoch": 0.8, | |
| "grad_norm": 1.2032169103622437, | |
| "learning_rate": 0.00019027027027027028, | |
| "loss": 1.2502, | |
| "step": 15 | |
| }, | |
| { | |
| "epoch": 0.8533333333333334, | |
| "grad_norm": 1.2003282308578491, | |
| "learning_rate": 0.0001891891891891892, | |
| "loss": 1.3167, | |
| "step": 16 | |
| }, | |
| { | |
| "epoch": 0.9066666666666666, | |
| "grad_norm": 1.2647852897644043, | |
| "learning_rate": 0.00018810810810810814, | |
| "loss": 1.2958, | |
| "step": 17 | |
| }, | |
| { | |
| "epoch": 0.96, | |
| "grad_norm": 1.2225099802017212, | |
| "learning_rate": 0.00018702702702702703, | |
| "loss": 1.1039, | |
| "step": 18 | |
| }, | |
| { | |
| "epoch": 1.0, | |
| "grad_norm": 1.1175678968429565, | |
| "learning_rate": 0.00018594594594594597, | |
| "loss": 1.0148, | |
| "step": 19 | |
| }, | |
| { | |
| "epoch": 1.0533333333333332, | |
| "grad_norm": 1.1830530166625977, | |
| "learning_rate": 0.00018486486486486486, | |
| "loss": 1.0407, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 1.1066666666666667, | |
| "grad_norm": 0.9075496196746826, | |
| "learning_rate": 0.0001837837837837838, | |
| "loss": 0.9057, | |
| "step": 21 | |
| }, | |
| { | |
| "epoch": 1.16, | |
| "grad_norm": 0.8098593354225159, | |
| "learning_rate": 0.00018270270270270272, | |
| "loss": 0.8612, | |
| "step": 22 | |
| }, | |
| { | |
| "epoch": 1.2133333333333334, | |
| "grad_norm": 0.9240499138832092, | |
| "learning_rate": 0.00018162162162162164, | |
| "loss": 0.8828, | |
| "step": 23 | |
| }, | |
| { | |
| "epoch": 1.2666666666666666, | |
| "grad_norm": 0.7987530827522278, | |
| "learning_rate": 0.00018054054054054055, | |
| "loss": 0.8126, | |
| "step": 24 | |
| }, | |
| { | |
| "epoch": 1.32, | |
| "grad_norm": 0.8396232724189758, | |
| "learning_rate": 0.00017945945945945947, | |
| "loss": 0.9116, | |
| "step": 25 | |
| }, | |
| { | |
| "epoch": 1.3733333333333333, | |
| "grad_norm": 0.8236972689628601, | |
| "learning_rate": 0.00017837837837837839, | |
| "loss": 0.7373, | |
| "step": 26 | |
| }, | |
| { | |
| "epoch": 1.4266666666666667, | |
| "grad_norm": 0.7285610437393188, | |
| "learning_rate": 0.00017729729729729733, | |
| "loss": 0.6247, | |
| "step": 27 | |
| }, | |
| { | |
| "epoch": 1.48, | |
| "grad_norm": 0.6658008098602295, | |
| "learning_rate": 0.00017621621621621622, | |
| "loss": 0.6866, | |
| "step": 28 | |
| }, | |
| { | |
| "epoch": 1.5333333333333332, | |
| "grad_norm": 0.7446240186691284, | |
| "learning_rate": 0.00017513513513513516, | |
| "loss": 0.7261, | |
| "step": 29 | |
| }, | |
| { | |
| "epoch": 1.5866666666666667, | |
| "grad_norm": 0.6878177523612976, | |
| "learning_rate": 0.00017405405405405405, | |
| "loss": 0.7688, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 1.6400000000000001, | |
| "grad_norm": 0.5825473070144653, | |
| "learning_rate": 0.000172972972972973, | |
| "loss": 0.6443, | |
| "step": 31 | |
| }, | |
| { | |
| "epoch": 1.6933333333333334, | |
| "grad_norm": 0.5800288915634155, | |
| "learning_rate": 0.0001718918918918919, | |
| "loss": 0.6609, | |
| "step": 32 | |
| }, | |
| { | |
| "epoch": 1.7466666666666666, | |
| "grad_norm": 0.6077244877815247, | |
| "learning_rate": 0.00017081081081081083, | |
| "loss": 0.6884, | |
| "step": 33 | |
| }, | |
| { | |
| "epoch": 1.8, | |
| "grad_norm": 0.5634922385215759, | |
| "learning_rate": 0.00016972972972972974, | |
| "loss": 0.5371, | |
| "step": 34 | |
| }, | |
| { | |
| "epoch": 1.8533333333333335, | |
| "grad_norm": 0.7918744087219238, | |
| "learning_rate": 0.00016864864864864866, | |
| "loss": 0.8134, | |
| "step": 35 | |
| }, | |
| { | |
| "epoch": 1.9066666666666667, | |
| "grad_norm": 0.8786271214485168, | |
| "learning_rate": 0.00016756756756756757, | |
| "loss": 0.8388, | |
| "step": 36 | |
| }, | |
| { | |
| "epoch": 1.96, | |
| "grad_norm": 0.5388052463531494, | |
| "learning_rate": 0.00016648648648648652, | |
| "loss": 0.6525, | |
| "step": 37 | |
| }, | |
| { | |
| "epoch": 2.0, | |
| "grad_norm": 0.8554252982139587, | |
| "learning_rate": 0.0001654054054054054, | |
| "loss": 0.7793, | |
| "step": 38 | |
| }, | |
| { | |
| "epoch": 2.0533333333333332, | |
| "grad_norm": 0.6043028831481934, | |
| "learning_rate": 0.00016432432432432435, | |
| "loss": 0.6002, | |
| "step": 39 | |
| }, | |
| { | |
| "epoch": 2.1066666666666665, | |
| "grad_norm": 0.5654100775718689, | |
| "learning_rate": 0.00016324324324324324, | |
| "loss": 0.5514, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 2.16, | |
| "grad_norm": 0.5622905492782593, | |
| "learning_rate": 0.00016216216216216218, | |
| "loss": 0.5555, | |
| "step": 41 | |
| }, | |
| { | |
| "epoch": 2.2133333333333334, | |
| "grad_norm": 0.5281704664230347, | |
| "learning_rate": 0.0001610810810810811, | |
| "loss": 0.5881, | |
| "step": 42 | |
| }, | |
| { | |
| "epoch": 2.2666666666666666, | |
| "grad_norm": 0.4860922396183014, | |
| "learning_rate": 0.00016, | |
| "loss": 0.4401, | |
| "step": 43 | |
| }, | |
| { | |
| "epoch": 2.32, | |
| "grad_norm": 0.592281699180603, | |
| "learning_rate": 0.00015891891891891893, | |
| "loss": 0.5885, | |
| "step": 44 | |
| }, | |
| { | |
| "epoch": 2.3733333333333335, | |
| "grad_norm": 0.4672849774360657, | |
| "learning_rate": 0.00015783783783783785, | |
| "loss": 0.4213, | |
| "step": 45 | |
| }, | |
| { | |
| "epoch": 2.4266666666666667, | |
| "grad_norm": 0.6344936490058899, | |
| "learning_rate": 0.00015675675675675676, | |
| "loss": 0.5391, | |
| "step": 46 | |
| }, | |
| { | |
| "epoch": 2.48, | |
| "grad_norm": 0.6623905897140503, | |
| "learning_rate": 0.0001556756756756757, | |
| "loss": 0.5531, | |
| "step": 47 | |
| }, | |
| { | |
| "epoch": 2.533333333333333, | |
| "grad_norm": 0.6063231229782104, | |
| "learning_rate": 0.0001545945945945946, | |
| "loss": 0.4793, | |
| "step": 48 | |
| }, | |
| { | |
| "epoch": 2.586666666666667, | |
| "grad_norm": 0.5558156967163086, | |
| "learning_rate": 0.00015351351351351354, | |
| "loss": 0.4482, | |
| "step": 49 | |
| }, | |
| { | |
| "epoch": 2.64, | |
| "grad_norm": 0.6785097718238831, | |
| "learning_rate": 0.00015243243243243243, | |
| "loss": 0.6906, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 2.6933333333333334, | |
| "grad_norm": 0.6826766729354858, | |
| "learning_rate": 0.00015135135135135137, | |
| "loss": 0.6222, | |
| "step": 51 | |
| }, | |
| { | |
| "epoch": 2.7466666666666666, | |
| "grad_norm": 0.6157349944114685, | |
| "learning_rate": 0.00015027027027027028, | |
| "loss": 0.4152, | |
| "step": 52 | |
| }, | |
| { | |
| "epoch": 2.8, | |
| "grad_norm": 0.7184132933616638, | |
| "learning_rate": 0.0001491891891891892, | |
| "loss": 0.6114, | |
| "step": 53 | |
| }, | |
| { | |
| "epoch": 2.8533333333333335, | |
| "grad_norm": 0.6043546795845032, | |
| "learning_rate": 0.00014810810810810812, | |
| "loss": 0.4917, | |
| "step": 54 | |
| }, | |
| { | |
| "epoch": 2.9066666666666667, | |
| "grad_norm": 0.628749430179596, | |
| "learning_rate": 0.00014702702702702703, | |
| "loss": 0.3952, | |
| "step": 55 | |
| }, | |
| { | |
| "epoch": 2.96, | |
| "grad_norm": 0.6067255735397339, | |
| "learning_rate": 0.00014594594594594595, | |
| "loss": 0.5159, | |
| "step": 56 | |
| }, | |
| { | |
| "epoch": 3.0, | |
| "grad_norm": 0.7200435400009155, | |
| "learning_rate": 0.0001448648648648649, | |
| "loss": 0.5015, | |
| "step": 57 | |
| }, | |
| { | |
| "epoch": 3.0533333333333332, | |
| "grad_norm": 0.6270686388015747, | |
| "learning_rate": 0.00014378378378378378, | |
| "loss": 0.5351, | |
| "step": 58 | |
| }, | |
| { | |
| "epoch": 3.1066666666666665, | |
| "grad_norm": 0.7099371552467346, | |
| "learning_rate": 0.00014270270270270272, | |
| "loss": 0.3699, | |
| "step": 59 | |
| }, | |
| { | |
| "epoch": 3.16, | |
| "grad_norm": 0.4469902813434601, | |
| "learning_rate": 0.00014162162162162161, | |
| "loss": 0.3183, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 3.2133333333333334, | |
| "grad_norm": 0.6315875053405762, | |
| "learning_rate": 0.00014054054054054056, | |
| "loss": 0.3916, | |
| "step": 61 | |
| }, | |
| { | |
| "epoch": 3.2666666666666666, | |
| "grad_norm": 0.7143704891204834, | |
| "learning_rate": 0.00013945945945945947, | |
| "loss": 0.4279, | |
| "step": 62 | |
| }, | |
| { | |
| "epoch": 3.32, | |
| "grad_norm": 0.5957121849060059, | |
| "learning_rate": 0.0001383783783783784, | |
| "loss": 0.3588, | |
| "step": 63 | |
| }, | |
| { | |
| "epoch": 3.3733333333333335, | |
| "grad_norm": 0.7153288722038269, | |
| "learning_rate": 0.0001372972972972973, | |
| "loss": 0.5773, | |
| "step": 64 | |
| }, | |
| { | |
| "epoch": 3.4266666666666667, | |
| "grad_norm": 0.6472995281219482, | |
| "learning_rate": 0.00013621621621621622, | |
| "loss": 0.4328, | |
| "step": 65 | |
| }, | |
| { | |
| "epoch": 3.48, | |
| "grad_norm": 0.6527895331382751, | |
| "learning_rate": 0.00013513513513513514, | |
| "loss": 0.4454, | |
| "step": 66 | |
| }, | |
| { | |
| "epoch": 3.533333333333333, | |
| "grad_norm": 0.5024020671844482, | |
| "learning_rate": 0.00013405405405405408, | |
| "loss": 0.3404, | |
| "step": 67 | |
| }, | |
| { | |
| "epoch": 3.586666666666667, | |
| "grad_norm": 0.5893893837928772, | |
| "learning_rate": 0.00013297297297297297, | |
| "loss": 0.2628, | |
| "step": 68 | |
| }, | |
| { | |
| "epoch": 3.64, | |
| "grad_norm": 0.6590572595596313, | |
| "learning_rate": 0.0001318918918918919, | |
| "loss": 0.37, | |
| "step": 69 | |
| }, | |
| { | |
| "epoch": 3.6933333333333334, | |
| "grad_norm": 0.6503171920776367, | |
| "learning_rate": 0.0001308108108108108, | |
| "loss": 0.381, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 3.7466666666666666, | |
| "grad_norm": 0.5625070929527283, | |
| "learning_rate": 0.00012972972972972974, | |
| "loss": 0.4027, | |
| "step": 71 | |
| }, | |
| { | |
| "epoch": 3.8, | |
| "grad_norm": 0.6765126585960388, | |
| "learning_rate": 0.00012864864864864866, | |
| "loss": 0.4235, | |
| "step": 72 | |
| }, | |
| { | |
| "epoch": 3.8533333333333335, | |
| "grad_norm": 0.5564252138137817, | |
| "learning_rate": 0.00012756756756756758, | |
| "loss": 0.3113, | |
| "step": 73 | |
| }, | |
| { | |
| "epoch": 3.9066666666666667, | |
| "grad_norm": 0.5405982732772827, | |
| "learning_rate": 0.0001264864864864865, | |
| "loss": 0.3067, | |
| "step": 74 | |
| }, | |
| { | |
| "epoch": 3.96, | |
| "grad_norm": 0.580288290977478, | |
| "learning_rate": 0.0001254054054054054, | |
| "loss": 0.283, | |
| "step": 75 | |
| }, | |
| { | |
| "epoch": 4.0, | |
| "grad_norm": 0.6484014391899109, | |
| "learning_rate": 0.00012432432432432433, | |
| "loss": 0.3488, | |
| "step": 76 | |
| }, | |
| { | |
| "epoch": 4.053333333333334, | |
| "grad_norm": 0.5099231600761414, | |
| "learning_rate": 0.00012324324324324327, | |
| "loss": 0.3175, | |
| "step": 77 | |
| }, | |
| { | |
| "epoch": 4.1066666666666665, | |
| "grad_norm": 0.6575998663902283, | |
| "learning_rate": 0.00012216216216216216, | |
| "loss": 0.4791, | |
| "step": 78 | |
| }, | |
| { | |
| "epoch": 4.16, | |
| "grad_norm": 0.6281353235244751, | |
| "learning_rate": 0.00012108108108108109, | |
| "loss": 0.2972, | |
| "step": 79 | |
| }, | |
| { | |
| "epoch": 4.213333333333333, | |
| "grad_norm": 0.6186221837997437, | |
| "learning_rate": 0.00012, | |
| "loss": 0.2879, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 4.266666666666667, | |
| "grad_norm": 0.6336839199066162, | |
| "learning_rate": 0.00011891891891891893, | |
| "loss": 0.3426, | |
| "step": 81 | |
| }, | |
| { | |
| "epoch": 4.32, | |
| "grad_norm": 0.6205630302429199, | |
| "learning_rate": 0.00011783783783783784, | |
| "loss": 0.227, | |
| "step": 82 | |
| }, | |
| { | |
| "epoch": 4.373333333333333, | |
| "grad_norm": 0.5527361631393433, | |
| "learning_rate": 0.00011675675675675676, | |
| "loss": 0.2312, | |
| "step": 83 | |
| }, | |
| { | |
| "epoch": 4.426666666666667, | |
| "grad_norm": 0.6175451278686523, | |
| "learning_rate": 0.00011567567567567568, | |
| "loss": 0.3367, | |
| "step": 84 | |
| }, | |
| { | |
| "epoch": 4.48, | |
| "grad_norm": 0.6770386099815369, | |
| "learning_rate": 0.00011459459459459461, | |
| "loss": 0.3082, | |
| "step": 85 | |
| }, | |
| { | |
| "epoch": 4.533333333333333, | |
| "grad_norm": 0.6515651941299438, | |
| "learning_rate": 0.00011351351351351351, | |
| "loss": 0.2286, | |
| "step": 86 | |
| }, | |
| { | |
| "epoch": 4.586666666666667, | |
| "grad_norm": 0.615166962146759, | |
| "learning_rate": 0.00011243243243243244, | |
| "loss": 0.2034, | |
| "step": 87 | |
| }, | |
| { | |
| "epoch": 4.64, | |
| "grad_norm": 0.7103771567344666, | |
| "learning_rate": 0.00011135135135135135, | |
| "loss": 0.2652, | |
| "step": 88 | |
| }, | |
| { | |
| "epoch": 4.693333333333333, | |
| "grad_norm": 0.7127423882484436, | |
| "learning_rate": 0.00011027027027027029, | |
| "loss": 0.3027, | |
| "step": 89 | |
| }, | |
| { | |
| "epoch": 4.746666666666667, | |
| "grad_norm": 0.6815232634544373, | |
| "learning_rate": 0.00010918918918918919, | |
| "loss": 0.2794, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 4.8, | |
| "grad_norm": 0.6688821315765381, | |
| "learning_rate": 0.00010810810810810812, | |
| "loss": 0.2743, | |
| "step": 91 | |
| }, | |
| { | |
| "epoch": 4.8533333333333335, | |
| "grad_norm": 0.6266018152236938, | |
| "learning_rate": 0.00010702702702702702, | |
| "loss": 0.2506, | |
| "step": 92 | |
| }, | |
| { | |
| "epoch": 4.906666666666666, | |
| "grad_norm": 0.615983784198761, | |
| "learning_rate": 0.00010594594594594595, | |
| "loss": 0.244, | |
| "step": 93 | |
| }, | |
| { | |
| "epoch": 4.96, | |
| "grad_norm": 0.7407805323600769, | |
| "learning_rate": 0.00010486486486486487, | |
| "loss": 0.3235, | |
| "step": 94 | |
| }, | |
| { | |
| "epoch": 5.0, | |
| "grad_norm": 0.7214280962944031, | |
| "learning_rate": 0.0001037837837837838, | |
| "loss": 0.3789, | |
| "step": 95 | |
| }, | |
| { | |
| "epoch": 5.053333333333334, | |
| "grad_norm": 0.6973103880882263, | |
| "learning_rate": 0.0001027027027027027, | |
| "loss": 0.2197, | |
| "step": 96 | |
| }, | |
| { | |
| "epoch": 5.1066666666666665, | |
| "grad_norm": 0.5083109736442566, | |
| "learning_rate": 0.00010162162162162163, | |
| "loss": 0.1289, | |
| "step": 97 | |
| }, | |
| { | |
| "epoch": 5.16, | |
| "grad_norm": 0.6989448666572571, | |
| "learning_rate": 0.00010054054054054053, | |
| "loss": 0.2747, | |
| "step": 98 | |
| }, | |
| { | |
| "epoch": 5.213333333333333, | |
| "grad_norm": 0.6188623905181885, | |
| "learning_rate": 9.945945945945948e-05, | |
| "loss": 0.2397, | |
| "step": 99 | |
| }, | |
| { | |
| "epoch": 5.266666666666667, | |
| "grad_norm": 0.6073055863380432, | |
| "learning_rate": 9.837837837837839e-05, | |
| "loss": 0.2052, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 5.32, | |
| "grad_norm": 0.6545196175575256, | |
| "learning_rate": 9.729729729729731e-05, | |
| "loss": 0.2301, | |
| "step": 101 | |
| }, | |
| { | |
| "epoch": 5.373333333333333, | |
| "grad_norm": 0.7770692110061646, | |
| "learning_rate": 9.621621621621622e-05, | |
| "loss": 0.2306, | |
| "step": 102 | |
| }, | |
| { | |
| "epoch": 5.426666666666667, | |
| "grad_norm": 0.7740461826324463, | |
| "learning_rate": 9.513513513513514e-05, | |
| "loss": 0.2685, | |
| "step": 103 | |
| }, | |
| { | |
| "epoch": 5.48, | |
| "grad_norm": 0.6835582256317139, | |
| "learning_rate": 9.405405405405407e-05, | |
| "loss": 0.176, | |
| "step": 104 | |
| }, | |
| { | |
| "epoch": 5.533333333333333, | |
| "grad_norm": 0.6593111753463745, | |
| "learning_rate": 9.297297297297299e-05, | |
| "loss": 0.1909, | |
| "step": 105 | |
| }, | |
| { | |
| "epoch": 5.586666666666667, | |
| "grad_norm": 0.8926195502281189, | |
| "learning_rate": 9.18918918918919e-05, | |
| "loss": 0.2887, | |
| "step": 106 | |
| }, | |
| { | |
| "epoch": 5.64, | |
| "grad_norm": 0.79143226146698, | |
| "learning_rate": 9.081081081081082e-05, | |
| "loss": 0.1818, | |
| "step": 107 | |
| }, | |
| { | |
| "epoch": 5.693333333333333, | |
| "grad_norm": 0.6516755819320679, | |
| "learning_rate": 8.972972972972973e-05, | |
| "loss": 0.2166, | |
| "step": 108 | |
| }, | |
| { | |
| "epoch": 5.746666666666667, | |
| "grad_norm": 0.6523953080177307, | |
| "learning_rate": 8.864864864864866e-05, | |
| "loss": 0.2092, | |
| "step": 109 | |
| }, | |
| { | |
| "epoch": 5.8, | |
| "grad_norm": 0.6548402905464172, | |
| "learning_rate": 8.756756756756758e-05, | |
| "loss": 0.1237, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 5.8533333333333335, | |
| "grad_norm": 0.8367058038711548, | |
| "learning_rate": 8.64864864864865e-05, | |
| "loss": 0.2499, | |
| "step": 111 | |
| }, | |
| { | |
| "epoch": 5.906666666666666, | |
| "grad_norm": 0.8076928853988647, | |
| "learning_rate": 8.540540540540541e-05, | |
| "loss": 0.2725, | |
| "step": 112 | |
| }, | |
| { | |
| "epoch": 5.96, | |
| "grad_norm": 0.7337738871574402, | |
| "learning_rate": 8.432432432432433e-05, | |
| "loss": 0.2412, | |
| "step": 113 | |
| }, | |
| { | |
| "epoch": 6.0, | |
| "grad_norm": 0.8447884321212769, | |
| "learning_rate": 8.324324324324326e-05, | |
| "loss": 0.2018, | |
| "step": 114 | |
| }, | |
| { | |
| "epoch": 6.053333333333334, | |
| "grad_norm": 0.6481534838676453, | |
| "learning_rate": 8.216216216216217e-05, | |
| "loss": 0.1907, | |
| "step": 115 | |
| }, | |
| { | |
| "epoch": 6.1066666666666665, | |
| "grad_norm": 0.6754074096679688, | |
| "learning_rate": 8.108108108108109e-05, | |
| "loss": 0.1559, | |
| "step": 116 | |
| }, | |
| { | |
| "epoch": 6.16, | |
| "grad_norm": 0.674432635307312, | |
| "learning_rate": 8e-05, | |
| "loss": 0.1977, | |
| "step": 117 | |
| }, | |
| { | |
| "epoch": 6.213333333333333, | |
| "grad_norm": 0.7197549939155579, | |
| "learning_rate": 7.891891891891892e-05, | |
| "loss": 0.1708, | |
| "step": 118 | |
| }, | |
| { | |
| "epoch": 6.266666666666667, | |
| "grad_norm": 0.5761333107948303, | |
| "learning_rate": 7.783783783783785e-05, | |
| "loss": 0.1251, | |
| "step": 119 | |
| }, | |
| { | |
| "epoch": 6.32, | |
| "grad_norm": 0.5829312801361084, | |
| "learning_rate": 7.675675675675677e-05, | |
| "loss": 0.1111, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 6.373333333333333, | |
| "grad_norm": 0.778752863407135, | |
| "learning_rate": 7.567567567567568e-05, | |
| "loss": 0.1565, | |
| "step": 121 | |
| }, | |
| { | |
| "epoch": 6.426666666666667, | |
| "grad_norm": 0.7507519721984863, | |
| "learning_rate": 7.45945945945946e-05, | |
| "loss": 0.1398, | |
| "step": 122 | |
| }, | |
| { | |
| "epoch": 6.48, | |
| "grad_norm": 0.6983451843261719, | |
| "learning_rate": 7.351351351351352e-05, | |
| "loss": 0.12, | |
| "step": 123 | |
| }, | |
| { | |
| "epoch": 6.533333333333333, | |
| "grad_norm": 0.6156823039054871, | |
| "learning_rate": 7.243243243243245e-05, | |
| "loss": 0.1081, | |
| "step": 124 | |
| }, | |
| { | |
| "epoch": 6.586666666666667, | |
| "grad_norm": 0.8576733469963074, | |
| "learning_rate": 7.135135135135136e-05, | |
| "loss": 0.1332, | |
| "step": 125 | |
| }, | |
| { | |
| "epoch": 6.64, | |
| "grad_norm": 0.7912089824676514, | |
| "learning_rate": 7.027027027027028e-05, | |
| "loss": 0.1283, | |
| "step": 126 | |
| }, | |
| { | |
| "epoch": 6.693333333333333, | |
| "grad_norm": 0.8497866988182068, | |
| "learning_rate": 6.91891891891892e-05, | |
| "loss": 0.1459, | |
| "step": 127 | |
| }, | |
| { | |
| "epoch": 6.746666666666667, | |
| "grad_norm": 0.7368230223655701, | |
| "learning_rate": 6.810810810810811e-05, | |
| "loss": 0.1263, | |
| "step": 128 | |
| }, | |
| { | |
| "epoch": 6.8, | |
| "grad_norm": 0.7851323485374451, | |
| "learning_rate": 6.702702702702704e-05, | |
| "loss": 0.1257, | |
| "step": 129 | |
| }, | |
| { | |
| "epoch": 6.8533333333333335, | |
| "grad_norm": 0.7375195622444153, | |
| "learning_rate": 6.594594594594596e-05, | |
| "loss": 0.126, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 6.906666666666666, | |
| "grad_norm": 0.8455854654312134, | |
| "learning_rate": 6.486486486486487e-05, | |
| "loss": 0.1818, | |
| "step": 131 | |
| }, | |
| { | |
| "epoch": 6.96, | |
| "grad_norm": 0.7988014817237854, | |
| "learning_rate": 6.378378378378379e-05, | |
| "loss": 0.1416, | |
| "step": 132 | |
| }, | |
| { | |
| "epoch": 7.0, | |
| "grad_norm": 1.181761622428894, | |
| "learning_rate": 6.27027027027027e-05, | |
| "loss": 0.3061, | |
| "step": 133 | |
| }, | |
| { | |
| "epoch": 7.053333333333334, | |
| "grad_norm": 0.7475009560585022, | |
| "learning_rate": 6.162162162162163e-05, | |
| "loss": 0.1332, | |
| "step": 134 | |
| }, | |
| { | |
| "epoch": 7.1066666666666665, | |
| "grad_norm": 0.6371139287948608, | |
| "learning_rate": 6.0540540540540543e-05, | |
| "loss": 0.0831, | |
| "step": 135 | |
| }, | |
| { | |
| "epoch": 7.16, | |
| "grad_norm": 0.5655011534690857, | |
| "learning_rate": 5.9459459459459466e-05, | |
| "loss": 0.0822, | |
| "step": 136 | |
| }, | |
| { | |
| "epoch": 7.213333333333333, | |
| "grad_norm": 0.6641082763671875, | |
| "learning_rate": 5.837837837837838e-05, | |
| "loss": 0.1068, | |
| "step": 137 | |
| }, | |
| { | |
| "epoch": 7.266666666666667, | |
| "grad_norm": 0.5877074599266052, | |
| "learning_rate": 5.7297297297297305e-05, | |
| "loss": 0.0737, | |
| "step": 138 | |
| }, | |
| { | |
| "epoch": 7.32, | |
| "grad_norm": 0.7259334325790405, | |
| "learning_rate": 5.621621621621622e-05, | |
| "loss": 0.1217, | |
| "step": 139 | |
| }, | |
| { | |
| "epoch": 7.373333333333333, | |
| "grad_norm": 0.5484410524368286, | |
| "learning_rate": 5.5135135135135144e-05, | |
| "loss": 0.0547, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 7.426666666666667, | |
| "grad_norm": 0.7040739059448242, | |
| "learning_rate": 5.405405405405406e-05, | |
| "loss": 0.0855, | |
| "step": 141 | |
| }, | |
| { | |
| "epoch": 7.48, | |
| "grad_norm": 0.7551671266555786, | |
| "learning_rate": 5.2972972972972976e-05, | |
| "loss": 0.1419, | |
| "step": 142 | |
| }, | |
| { | |
| "epoch": 7.533333333333333, | |
| "grad_norm": 0.7220690846443176, | |
| "learning_rate": 5.18918918918919e-05, | |
| "loss": 0.09, | |
| "step": 143 | |
| }, | |
| { | |
| "epoch": 7.586666666666667, | |
| "grad_norm": 0.7653244137763977, | |
| "learning_rate": 5.0810810810810815e-05, | |
| "loss": 0.0959, | |
| "step": 144 | |
| }, | |
| { | |
| "epoch": 7.64, | |
| "grad_norm": 0.8557524681091309, | |
| "learning_rate": 4.972972972972974e-05, | |
| "loss": 0.1038, | |
| "step": 145 | |
| }, | |
| { | |
| "epoch": 7.693333333333333, | |
| "grad_norm": 0.8686397671699524, | |
| "learning_rate": 4.8648648648648654e-05, | |
| "loss": 0.063, | |
| "step": 146 | |
| }, | |
| { | |
| "epoch": 7.746666666666667, | |
| "grad_norm": 0.6569188237190247, | |
| "learning_rate": 4.756756756756757e-05, | |
| "loss": 0.0566, | |
| "step": 147 | |
| }, | |
| { | |
| "epoch": 7.8, | |
| "grad_norm": 0.8147929906845093, | |
| "learning_rate": 4.648648648648649e-05, | |
| "loss": 0.0697, | |
| "step": 148 | |
| }, | |
| { | |
| "epoch": 7.8533333333333335, | |
| "grad_norm": 0.8243633508682251, | |
| "learning_rate": 4.540540540540541e-05, | |
| "loss": 0.0882, | |
| "step": 149 | |
| }, | |
| { | |
| "epoch": 7.906666666666666, | |
| "grad_norm": 0.8485711216926575, | |
| "learning_rate": 4.432432432432433e-05, | |
| "loss": 0.0799, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 7.96, | |
| "grad_norm": 0.9228702187538147, | |
| "learning_rate": 4.324324324324325e-05, | |
| "loss": 0.0863, | |
| "step": 151 | |
| }, | |
| { | |
| "epoch": 8.0, | |
| "grad_norm": 1.06531822681427, | |
| "learning_rate": 4.2162162162162164e-05, | |
| "loss": 0.1346, | |
| "step": 152 | |
| }, | |
| { | |
| "epoch": 8.053333333333333, | |
| "grad_norm": 0.7236900329589844, | |
| "learning_rate": 4.108108108108109e-05, | |
| "loss": 0.0868, | |
| "step": 153 | |
| }, | |
| { | |
| "epoch": 8.106666666666667, | |
| "grad_norm": 0.48567166924476624, | |
| "learning_rate": 4e-05, | |
| "loss": 0.0375, | |
| "step": 154 | |
| }, | |
| { | |
| "epoch": 8.16, | |
| "grad_norm": 0.7095057964324951, | |
| "learning_rate": 3.8918918918918926e-05, | |
| "loss": 0.0971, | |
| "step": 155 | |
| }, | |
| { | |
| "epoch": 8.213333333333333, | |
| "grad_norm": 0.7046399116516113, | |
| "learning_rate": 3.783783783783784e-05, | |
| "loss": 0.0716, | |
| "step": 156 | |
| }, | |
| { | |
| "epoch": 8.266666666666667, | |
| "grad_norm": 0.6369104981422424, | |
| "learning_rate": 3.675675675675676e-05, | |
| "loss": 0.0702, | |
| "step": 157 | |
| }, | |
| { | |
| "epoch": 8.32, | |
| "grad_norm": 0.6888811588287354, | |
| "learning_rate": 3.567567567567568e-05, | |
| "loss": 0.0607, | |
| "step": 158 | |
| }, | |
| { | |
| "epoch": 8.373333333333333, | |
| "grad_norm": 0.6034691333770752, | |
| "learning_rate": 3.45945945945946e-05, | |
| "loss": 0.0453, | |
| "step": 159 | |
| }, | |
| { | |
| "epoch": 8.426666666666666, | |
| "grad_norm": 0.6416992545127869, | |
| "learning_rate": 3.351351351351352e-05, | |
| "loss": 0.0523, | |
| "step": 160 | |
| }, | |
| { | |
| "epoch": 8.48, | |
| "grad_norm": 0.6690638661384583, | |
| "learning_rate": 3.2432432432432436e-05, | |
| "loss": 0.067, | |
| "step": 161 | |
| }, | |
| { | |
| "epoch": 8.533333333333333, | |
| "grad_norm": 0.5749509334564209, | |
| "learning_rate": 3.135135135135135e-05, | |
| "loss": 0.0514, | |
| "step": 162 | |
| }, | |
| { | |
| "epoch": 8.586666666666666, | |
| "grad_norm": 0.7911456227302551, | |
| "learning_rate": 3.0270270270270272e-05, | |
| "loss": 0.0687, | |
| "step": 163 | |
| }, | |
| { | |
| "epoch": 8.64, | |
| "grad_norm": 0.6897225975990295, | |
| "learning_rate": 2.918918918918919e-05, | |
| "loss": 0.0371, | |
| "step": 164 | |
| }, | |
| { | |
| "epoch": 8.693333333333333, | |
| "grad_norm": 0.6747151613235474, | |
| "learning_rate": 2.810810810810811e-05, | |
| "loss": 0.0405, | |
| "step": 165 | |
| }, | |
| { | |
| "epoch": 8.746666666666666, | |
| "grad_norm": 0.6985137462615967, | |
| "learning_rate": 2.702702702702703e-05, | |
| "loss": 0.0399, | |
| "step": 166 | |
| }, | |
| { | |
| "epoch": 8.8, | |
| "grad_norm": 0.64153653383255, | |
| "learning_rate": 2.594594594594595e-05, | |
| "loss": 0.0493, | |
| "step": 167 | |
| }, | |
| { | |
| "epoch": 8.853333333333333, | |
| "grad_norm": 0.6300393342971802, | |
| "learning_rate": 2.486486486486487e-05, | |
| "loss": 0.0312, | |
| "step": 168 | |
| }, | |
| { | |
| "epoch": 8.906666666666666, | |
| "grad_norm": 0.47996580600738525, | |
| "learning_rate": 2.3783783783783785e-05, | |
| "loss": 0.0315, | |
| "step": 169 | |
| }, | |
| { | |
| "epoch": 8.96, | |
| "grad_norm": 0.6305020451545715, | |
| "learning_rate": 2.2702702702702705e-05, | |
| "loss": 0.0359, | |
| "step": 170 | |
| }, | |
| { | |
| "epoch": 9.0, | |
| "grad_norm": 0.6539890766143799, | |
| "learning_rate": 2.1621621621621624e-05, | |
| "loss": 0.0328, | |
| "step": 171 | |
| }, | |
| { | |
| "epoch": 9.053333333333333, | |
| "grad_norm": 0.47058215737342834, | |
| "learning_rate": 2.0540540540540544e-05, | |
| "loss": 0.0303, | |
| "step": 172 | |
| }, | |
| { | |
| "epoch": 9.106666666666667, | |
| "grad_norm": 0.36159807443618774, | |
| "learning_rate": 1.9459459459459463e-05, | |
| "loss": 0.0148, | |
| "step": 173 | |
| }, | |
| { | |
| "epoch": 9.16, | |
| "grad_norm": 0.47357675433158875, | |
| "learning_rate": 1.837837837837838e-05, | |
| "loss": 0.0357, | |
| "step": 174 | |
| }, | |
| { | |
| "epoch": 9.213333333333333, | |
| "grad_norm": 0.5119134187698364, | |
| "learning_rate": 1.72972972972973e-05, | |
| "loss": 0.0378, | |
| "step": 175 | |
| }, | |
| { | |
| "epoch": 9.266666666666667, | |
| "grad_norm": 0.3982938230037689, | |
| "learning_rate": 1.6216216216216218e-05, | |
| "loss": 0.0189, | |
| "step": 176 | |
| }, | |
| { | |
| "epoch": 9.32, | |
| "grad_norm": 0.4229731559753418, | |
| "learning_rate": 1.5135135135135136e-05, | |
| "loss": 0.0232, | |
| "step": 177 | |
| }, | |
| { | |
| "epoch": 9.373333333333333, | |
| "grad_norm": 0.5164742469787598, | |
| "learning_rate": 1.4054054054054055e-05, | |
| "loss": 0.0416, | |
| "step": 178 | |
| }, | |
| { | |
| "epoch": 9.426666666666666, | |
| "grad_norm": 0.6268206834793091, | |
| "learning_rate": 1.2972972972972975e-05, | |
| "loss": 0.0458, | |
| "step": 179 | |
| }, | |
| { | |
| "epoch": 9.48, | |
| "grad_norm": 0.6097092032432556, | |
| "learning_rate": 1.1891891891891893e-05, | |
| "loss": 0.038, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 9.533333333333333, | |
| "grad_norm": 0.537212610244751, | |
| "learning_rate": 1.0810810810810812e-05, | |
| "loss": 0.0237, | |
| "step": 181 | |
| }, | |
| { | |
| "epoch": 9.586666666666666, | |
| "grad_norm": 0.4725726842880249, | |
| "learning_rate": 9.729729729729732e-06, | |
| "loss": 0.025, | |
| "step": 182 | |
| }, | |
| { | |
| "epoch": 9.64, | |
| "grad_norm": 0.3361439108848572, | |
| "learning_rate": 8.64864864864865e-06, | |
| "loss": 0.012, | |
| "step": 183 | |
| }, | |
| { | |
| "epoch": 9.693333333333333, | |
| "grad_norm": 0.529528796672821, | |
| "learning_rate": 7.567567567567568e-06, | |
| "loss": 0.0398, | |
| "step": 184 | |
| }, | |
| { | |
| "epoch": 9.746666666666666, | |
| "grad_norm": 0.4508318603038788, | |
| "learning_rate": 6.486486486486487e-06, | |
| "loss": 0.0245, | |
| "step": 185 | |
| }, | |
| { | |
| "epoch": 9.8, | |
| "grad_norm": 0.4403272569179535, | |
| "learning_rate": 5.405405405405406e-06, | |
| "loss": 0.023, | |
| "step": 186 | |
| }, | |
| { | |
| "epoch": 9.853333333333333, | |
| "grad_norm": 0.5844480395317078, | |
| "learning_rate": 4.324324324324325e-06, | |
| "loss": 0.036, | |
| "step": 187 | |
| }, | |
| { | |
| "epoch": 9.906666666666666, | |
| "grad_norm": 0.48860466480255127, | |
| "learning_rate": 3.2432432432432437e-06, | |
| "loss": 0.0245, | |
| "step": 188 | |
| }, | |
| { | |
| "epoch": 9.96, | |
| "grad_norm": 0.5813486576080322, | |
| "learning_rate": 2.1621621621621623e-06, | |
| "loss": 0.0356, | |
| "step": 189 | |
| }, | |
| { | |
| "epoch": 10.0, | |
| "grad_norm": 0.557105541229248, | |
| "learning_rate": 1.0810810810810812e-06, | |
| "loss": 0.0326, | |
| "step": 190 | |
| } | |
| ], | |
| "logging_steps": 1, | |
| "max_steps": 190, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 10, | |
| "save_steps": 500, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 3.126061441746144e+16, | |
| "train_batch_size": 1, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |