afri-aya-vision-krio-8b / trainer_state.json
Jaward's picture
Initial model upload
732326a verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 10.0,
"eval_steps": 500,
"global_step": 190,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.05333333333333334,
"grad_norm": 2.9939651489257812,
"learning_rate": 0.0,
"loss": 5.926,
"step": 1
},
{
"epoch": 0.10666666666666667,
"grad_norm": 3.11077618598938,
"learning_rate": 4e-05,
"loss": 6.0494,
"step": 2
},
{
"epoch": 0.16,
"grad_norm": 3.065760374069214,
"learning_rate": 8e-05,
"loss": 5.6388,
"step": 3
},
{
"epoch": 0.21333333333333335,
"grad_norm": 2.9126641750335693,
"learning_rate": 0.00012,
"loss": 5.4761,
"step": 4
},
{
"epoch": 0.26666666666666666,
"grad_norm": 2.801853895187378,
"learning_rate": 0.00016,
"loss": 4.6481,
"step": 5
},
{
"epoch": 0.32,
"grad_norm": 2.5619330406188965,
"learning_rate": 0.0002,
"loss": 4.1709,
"step": 6
},
{
"epoch": 0.37333333333333335,
"grad_norm": 2.608609199523926,
"learning_rate": 0.00019891891891891895,
"loss": 3.5148,
"step": 7
},
{
"epoch": 0.4266666666666667,
"grad_norm": 2.3922441005706787,
"learning_rate": 0.00019783783783783784,
"loss": 2.8294,
"step": 8
},
{
"epoch": 0.48,
"grad_norm": 2.1659512519836426,
"learning_rate": 0.00019675675675675678,
"loss": 2.7794,
"step": 9
},
{
"epoch": 0.5333333333333333,
"grad_norm": 1.8976439237594604,
"learning_rate": 0.00019567567567567567,
"loss": 2.2562,
"step": 10
},
{
"epoch": 0.5866666666666667,
"grad_norm": 1.6699284315109253,
"learning_rate": 0.00019459459459459462,
"loss": 1.8949,
"step": 11
},
{
"epoch": 0.64,
"grad_norm": 1.5291804075241089,
"learning_rate": 0.00019351351351351353,
"loss": 1.7623,
"step": 12
},
{
"epoch": 0.6933333333333334,
"grad_norm": 1.3941810131072998,
"learning_rate": 0.00019243243243243245,
"loss": 1.525,
"step": 13
},
{
"epoch": 0.7466666666666667,
"grad_norm": 1.37143075466156,
"learning_rate": 0.00019135135135135137,
"loss": 1.6288,
"step": 14
},
{
"epoch": 0.8,
"grad_norm": 1.2032169103622437,
"learning_rate": 0.00019027027027027028,
"loss": 1.2502,
"step": 15
},
{
"epoch": 0.8533333333333334,
"grad_norm": 1.2003282308578491,
"learning_rate": 0.0001891891891891892,
"loss": 1.3167,
"step": 16
},
{
"epoch": 0.9066666666666666,
"grad_norm": 1.2647852897644043,
"learning_rate": 0.00018810810810810814,
"loss": 1.2958,
"step": 17
},
{
"epoch": 0.96,
"grad_norm": 1.2225099802017212,
"learning_rate": 0.00018702702702702703,
"loss": 1.1039,
"step": 18
},
{
"epoch": 1.0,
"grad_norm": 1.1175678968429565,
"learning_rate": 0.00018594594594594597,
"loss": 1.0148,
"step": 19
},
{
"epoch": 1.0533333333333332,
"grad_norm": 1.1830530166625977,
"learning_rate": 0.00018486486486486486,
"loss": 1.0407,
"step": 20
},
{
"epoch": 1.1066666666666667,
"grad_norm": 0.9075496196746826,
"learning_rate": 0.0001837837837837838,
"loss": 0.9057,
"step": 21
},
{
"epoch": 1.16,
"grad_norm": 0.8098593354225159,
"learning_rate": 0.00018270270270270272,
"loss": 0.8612,
"step": 22
},
{
"epoch": 1.2133333333333334,
"grad_norm": 0.9240499138832092,
"learning_rate": 0.00018162162162162164,
"loss": 0.8828,
"step": 23
},
{
"epoch": 1.2666666666666666,
"grad_norm": 0.7987530827522278,
"learning_rate": 0.00018054054054054055,
"loss": 0.8126,
"step": 24
},
{
"epoch": 1.32,
"grad_norm": 0.8396232724189758,
"learning_rate": 0.00017945945945945947,
"loss": 0.9116,
"step": 25
},
{
"epoch": 1.3733333333333333,
"grad_norm": 0.8236972689628601,
"learning_rate": 0.00017837837837837839,
"loss": 0.7373,
"step": 26
},
{
"epoch": 1.4266666666666667,
"grad_norm": 0.7285610437393188,
"learning_rate": 0.00017729729729729733,
"loss": 0.6247,
"step": 27
},
{
"epoch": 1.48,
"grad_norm": 0.6658008098602295,
"learning_rate": 0.00017621621621621622,
"loss": 0.6866,
"step": 28
},
{
"epoch": 1.5333333333333332,
"grad_norm": 0.7446240186691284,
"learning_rate": 0.00017513513513513516,
"loss": 0.7261,
"step": 29
},
{
"epoch": 1.5866666666666667,
"grad_norm": 0.6878177523612976,
"learning_rate": 0.00017405405405405405,
"loss": 0.7688,
"step": 30
},
{
"epoch": 1.6400000000000001,
"grad_norm": 0.5825473070144653,
"learning_rate": 0.000172972972972973,
"loss": 0.6443,
"step": 31
},
{
"epoch": 1.6933333333333334,
"grad_norm": 0.5800288915634155,
"learning_rate": 0.0001718918918918919,
"loss": 0.6609,
"step": 32
},
{
"epoch": 1.7466666666666666,
"grad_norm": 0.6077244877815247,
"learning_rate": 0.00017081081081081083,
"loss": 0.6884,
"step": 33
},
{
"epoch": 1.8,
"grad_norm": 0.5634922385215759,
"learning_rate": 0.00016972972972972974,
"loss": 0.5371,
"step": 34
},
{
"epoch": 1.8533333333333335,
"grad_norm": 0.7918744087219238,
"learning_rate": 0.00016864864864864866,
"loss": 0.8134,
"step": 35
},
{
"epoch": 1.9066666666666667,
"grad_norm": 0.8786271214485168,
"learning_rate": 0.00016756756756756757,
"loss": 0.8388,
"step": 36
},
{
"epoch": 1.96,
"grad_norm": 0.5388052463531494,
"learning_rate": 0.00016648648648648652,
"loss": 0.6525,
"step": 37
},
{
"epoch": 2.0,
"grad_norm": 0.8554252982139587,
"learning_rate": 0.0001654054054054054,
"loss": 0.7793,
"step": 38
},
{
"epoch": 2.0533333333333332,
"grad_norm": 0.6043028831481934,
"learning_rate": 0.00016432432432432435,
"loss": 0.6002,
"step": 39
},
{
"epoch": 2.1066666666666665,
"grad_norm": 0.5654100775718689,
"learning_rate": 0.00016324324324324324,
"loss": 0.5514,
"step": 40
},
{
"epoch": 2.16,
"grad_norm": 0.5622905492782593,
"learning_rate": 0.00016216216216216218,
"loss": 0.5555,
"step": 41
},
{
"epoch": 2.2133333333333334,
"grad_norm": 0.5281704664230347,
"learning_rate": 0.0001610810810810811,
"loss": 0.5881,
"step": 42
},
{
"epoch": 2.2666666666666666,
"grad_norm": 0.4860922396183014,
"learning_rate": 0.00016,
"loss": 0.4401,
"step": 43
},
{
"epoch": 2.32,
"grad_norm": 0.592281699180603,
"learning_rate": 0.00015891891891891893,
"loss": 0.5885,
"step": 44
},
{
"epoch": 2.3733333333333335,
"grad_norm": 0.4672849774360657,
"learning_rate": 0.00015783783783783785,
"loss": 0.4213,
"step": 45
},
{
"epoch": 2.4266666666666667,
"grad_norm": 0.6344936490058899,
"learning_rate": 0.00015675675675675676,
"loss": 0.5391,
"step": 46
},
{
"epoch": 2.48,
"grad_norm": 0.6623905897140503,
"learning_rate": 0.0001556756756756757,
"loss": 0.5531,
"step": 47
},
{
"epoch": 2.533333333333333,
"grad_norm": 0.6063231229782104,
"learning_rate": 0.0001545945945945946,
"loss": 0.4793,
"step": 48
},
{
"epoch": 2.586666666666667,
"grad_norm": 0.5558156967163086,
"learning_rate": 0.00015351351351351354,
"loss": 0.4482,
"step": 49
},
{
"epoch": 2.64,
"grad_norm": 0.6785097718238831,
"learning_rate": 0.00015243243243243243,
"loss": 0.6906,
"step": 50
},
{
"epoch": 2.6933333333333334,
"grad_norm": 0.6826766729354858,
"learning_rate": 0.00015135135135135137,
"loss": 0.6222,
"step": 51
},
{
"epoch": 2.7466666666666666,
"grad_norm": 0.6157349944114685,
"learning_rate": 0.00015027027027027028,
"loss": 0.4152,
"step": 52
},
{
"epoch": 2.8,
"grad_norm": 0.7184132933616638,
"learning_rate": 0.0001491891891891892,
"loss": 0.6114,
"step": 53
},
{
"epoch": 2.8533333333333335,
"grad_norm": 0.6043546795845032,
"learning_rate": 0.00014810810810810812,
"loss": 0.4917,
"step": 54
},
{
"epoch": 2.9066666666666667,
"grad_norm": 0.628749430179596,
"learning_rate": 0.00014702702702702703,
"loss": 0.3952,
"step": 55
},
{
"epoch": 2.96,
"grad_norm": 0.6067255735397339,
"learning_rate": 0.00014594594594594595,
"loss": 0.5159,
"step": 56
},
{
"epoch": 3.0,
"grad_norm": 0.7200435400009155,
"learning_rate": 0.0001448648648648649,
"loss": 0.5015,
"step": 57
},
{
"epoch": 3.0533333333333332,
"grad_norm": 0.6270686388015747,
"learning_rate": 0.00014378378378378378,
"loss": 0.5351,
"step": 58
},
{
"epoch": 3.1066666666666665,
"grad_norm": 0.7099371552467346,
"learning_rate": 0.00014270270270270272,
"loss": 0.3699,
"step": 59
},
{
"epoch": 3.16,
"grad_norm": 0.4469902813434601,
"learning_rate": 0.00014162162162162161,
"loss": 0.3183,
"step": 60
},
{
"epoch": 3.2133333333333334,
"grad_norm": 0.6315875053405762,
"learning_rate": 0.00014054054054054056,
"loss": 0.3916,
"step": 61
},
{
"epoch": 3.2666666666666666,
"grad_norm": 0.7143704891204834,
"learning_rate": 0.00013945945945945947,
"loss": 0.4279,
"step": 62
},
{
"epoch": 3.32,
"grad_norm": 0.5957121849060059,
"learning_rate": 0.0001383783783783784,
"loss": 0.3588,
"step": 63
},
{
"epoch": 3.3733333333333335,
"grad_norm": 0.7153288722038269,
"learning_rate": 0.0001372972972972973,
"loss": 0.5773,
"step": 64
},
{
"epoch": 3.4266666666666667,
"grad_norm": 0.6472995281219482,
"learning_rate": 0.00013621621621621622,
"loss": 0.4328,
"step": 65
},
{
"epoch": 3.48,
"grad_norm": 0.6527895331382751,
"learning_rate": 0.00013513513513513514,
"loss": 0.4454,
"step": 66
},
{
"epoch": 3.533333333333333,
"grad_norm": 0.5024020671844482,
"learning_rate": 0.00013405405405405408,
"loss": 0.3404,
"step": 67
},
{
"epoch": 3.586666666666667,
"grad_norm": 0.5893893837928772,
"learning_rate": 0.00013297297297297297,
"loss": 0.2628,
"step": 68
},
{
"epoch": 3.64,
"grad_norm": 0.6590572595596313,
"learning_rate": 0.0001318918918918919,
"loss": 0.37,
"step": 69
},
{
"epoch": 3.6933333333333334,
"grad_norm": 0.6503171920776367,
"learning_rate": 0.0001308108108108108,
"loss": 0.381,
"step": 70
},
{
"epoch": 3.7466666666666666,
"grad_norm": 0.5625070929527283,
"learning_rate": 0.00012972972972972974,
"loss": 0.4027,
"step": 71
},
{
"epoch": 3.8,
"grad_norm": 0.6765126585960388,
"learning_rate": 0.00012864864864864866,
"loss": 0.4235,
"step": 72
},
{
"epoch": 3.8533333333333335,
"grad_norm": 0.5564252138137817,
"learning_rate": 0.00012756756756756758,
"loss": 0.3113,
"step": 73
},
{
"epoch": 3.9066666666666667,
"grad_norm": 0.5405982732772827,
"learning_rate": 0.0001264864864864865,
"loss": 0.3067,
"step": 74
},
{
"epoch": 3.96,
"grad_norm": 0.580288290977478,
"learning_rate": 0.0001254054054054054,
"loss": 0.283,
"step": 75
},
{
"epoch": 4.0,
"grad_norm": 0.6484014391899109,
"learning_rate": 0.00012432432432432433,
"loss": 0.3488,
"step": 76
},
{
"epoch": 4.053333333333334,
"grad_norm": 0.5099231600761414,
"learning_rate": 0.00012324324324324327,
"loss": 0.3175,
"step": 77
},
{
"epoch": 4.1066666666666665,
"grad_norm": 0.6575998663902283,
"learning_rate": 0.00012216216216216216,
"loss": 0.4791,
"step": 78
},
{
"epoch": 4.16,
"grad_norm": 0.6281353235244751,
"learning_rate": 0.00012108108108108109,
"loss": 0.2972,
"step": 79
},
{
"epoch": 4.213333333333333,
"grad_norm": 0.6186221837997437,
"learning_rate": 0.00012,
"loss": 0.2879,
"step": 80
},
{
"epoch": 4.266666666666667,
"grad_norm": 0.6336839199066162,
"learning_rate": 0.00011891891891891893,
"loss": 0.3426,
"step": 81
},
{
"epoch": 4.32,
"grad_norm": 0.6205630302429199,
"learning_rate": 0.00011783783783783784,
"loss": 0.227,
"step": 82
},
{
"epoch": 4.373333333333333,
"grad_norm": 0.5527361631393433,
"learning_rate": 0.00011675675675675676,
"loss": 0.2312,
"step": 83
},
{
"epoch": 4.426666666666667,
"grad_norm": 0.6175451278686523,
"learning_rate": 0.00011567567567567568,
"loss": 0.3367,
"step": 84
},
{
"epoch": 4.48,
"grad_norm": 0.6770386099815369,
"learning_rate": 0.00011459459459459461,
"loss": 0.3082,
"step": 85
},
{
"epoch": 4.533333333333333,
"grad_norm": 0.6515651941299438,
"learning_rate": 0.00011351351351351351,
"loss": 0.2286,
"step": 86
},
{
"epoch": 4.586666666666667,
"grad_norm": 0.615166962146759,
"learning_rate": 0.00011243243243243244,
"loss": 0.2034,
"step": 87
},
{
"epoch": 4.64,
"grad_norm": 0.7103771567344666,
"learning_rate": 0.00011135135135135135,
"loss": 0.2652,
"step": 88
},
{
"epoch": 4.693333333333333,
"grad_norm": 0.7127423882484436,
"learning_rate": 0.00011027027027027029,
"loss": 0.3027,
"step": 89
},
{
"epoch": 4.746666666666667,
"grad_norm": 0.6815232634544373,
"learning_rate": 0.00010918918918918919,
"loss": 0.2794,
"step": 90
},
{
"epoch": 4.8,
"grad_norm": 0.6688821315765381,
"learning_rate": 0.00010810810810810812,
"loss": 0.2743,
"step": 91
},
{
"epoch": 4.8533333333333335,
"grad_norm": 0.6266018152236938,
"learning_rate": 0.00010702702702702702,
"loss": 0.2506,
"step": 92
},
{
"epoch": 4.906666666666666,
"grad_norm": 0.615983784198761,
"learning_rate": 0.00010594594594594595,
"loss": 0.244,
"step": 93
},
{
"epoch": 4.96,
"grad_norm": 0.7407805323600769,
"learning_rate": 0.00010486486486486487,
"loss": 0.3235,
"step": 94
},
{
"epoch": 5.0,
"grad_norm": 0.7214280962944031,
"learning_rate": 0.0001037837837837838,
"loss": 0.3789,
"step": 95
},
{
"epoch": 5.053333333333334,
"grad_norm": 0.6973103880882263,
"learning_rate": 0.0001027027027027027,
"loss": 0.2197,
"step": 96
},
{
"epoch": 5.1066666666666665,
"grad_norm": 0.5083109736442566,
"learning_rate": 0.00010162162162162163,
"loss": 0.1289,
"step": 97
},
{
"epoch": 5.16,
"grad_norm": 0.6989448666572571,
"learning_rate": 0.00010054054054054053,
"loss": 0.2747,
"step": 98
},
{
"epoch": 5.213333333333333,
"grad_norm": 0.6188623905181885,
"learning_rate": 9.945945945945948e-05,
"loss": 0.2397,
"step": 99
},
{
"epoch": 5.266666666666667,
"grad_norm": 0.6073055863380432,
"learning_rate": 9.837837837837839e-05,
"loss": 0.2052,
"step": 100
},
{
"epoch": 5.32,
"grad_norm": 0.6545196175575256,
"learning_rate": 9.729729729729731e-05,
"loss": 0.2301,
"step": 101
},
{
"epoch": 5.373333333333333,
"grad_norm": 0.7770692110061646,
"learning_rate": 9.621621621621622e-05,
"loss": 0.2306,
"step": 102
},
{
"epoch": 5.426666666666667,
"grad_norm": 0.7740461826324463,
"learning_rate": 9.513513513513514e-05,
"loss": 0.2685,
"step": 103
},
{
"epoch": 5.48,
"grad_norm": 0.6835582256317139,
"learning_rate": 9.405405405405407e-05,
"loss": 0.176,
"step": 104
},
{
"epoch": 5.533333333333333,
"grad_norm": 0.6593111753463745,
"learning_rate": 9.297297297297299e-05,
"loss": 0.1909,
"step": 105
},
{
"epoch": 5.586666666666667,
"grad_norm": 0.8926195502281189,
"learning_rate": 9.18918918918919e-05,
"loss": 0.2887,
"step": 106
},
{
"epoch": 5.64,
"grad_norm": 0.79143226146698,
"learning_rate": 9.081081081081082e-05,
"loss": 0.1818,
"step": 107
},
{
"epoch": 5.693333333333333,
"grad_norm": 0.6516755819320679,
"learning_rate": 8.972972972972973e-05,
"loss": 0.2166,
"step": 108
},
{
"epoch": 5.746666666666667,
"grad_norm": 0.6523953080177307,
"learning_rate": 8.864864864864866e-05,
"loss": 0.2092,
"step": 109
},
{
"epoch": 5.8,
"grad_norm": 0.6548402905464172,
"learning_rate": 8.756756756756758e-05,
"loss": 0.1237,
"step": 110
},
{
"epoch": 5.8533333333333335,
"grad_norm": 0.8367058038711548,
"learning_rate": 8.64864864864865e-05,
"loss": 0.2499,
"step": 111
},
{
"epoch": 5.906666666666666,
"grad_norm": 0.8076928853988647,
"learning_rate": 8.540540540540541e-05,
"loss": 0.2725,
"step": 112
},
{
"epoch": 5.96,
"grad_norm": 0.7337738871574402,
"learning_rate": 8.432432432432433e-05,
"loss": 0.2412,
"step": 113
},
{
"epoch": 6.0,
"grad_norm": 0.8447884321212769,
"learning_rate": 8.324324324324326e-05,
"loss": 0.2018,
"step": 114
},
{
"epoch": 6.053333333333334,
"grad_norm": 0.6481534838676453,
"learning_rate": 8.216216216216217e-05,
"loss": 0.1907,
"step": 115
},
{
"epoch": 6.1066666666666665,
"grad_norm": 0.6754074096679688,
"learning_rate": 8.108108108108109e-05,
"loss": 0.1559,
"step": 116
},
{
"epoch": 6.16,
"grad_norm": 0.674432635307312,
"learning_rate": 8e-05,
"loss": 0.1977,
"step": 117
},
{
"epoch": 6.213333333333333,
"grad_norm": 0.7197549939155579,
"learning_rate": 7.891891891891892e-05,
"loss": 0.1708,
"step": 118
},
{
"epoch": 6.266666666666667,
"grad_norm": 0.5761333107948303,
"learning_rate": 7.783783783783785e-05,
"loss": 0.1251,
"step": 119
},
{
"epoch": 6.32,
"grad_norm": 0.5829312801361084,
"learning_rate": 7.675675675675677e-05,
"loss": 0.1111,
"step": 120
},
{
"epoch": 6.373333333333333,
"grad_norm": 0.778752863407135,
"learning_rate": 7.567567567567568e-05,
"loss": 0.1565,
"step": 121
},
{
"epoch": 6.426666666666667,
"grad_norm": 0.7507519721984863,
"learning_rate": 7.45945945945946e-05,
"loss": 0.1398,
"step": 122
},
{
"epoch": 6.48,
"grad_norm": 0.6983451843261719,
"learning_rate": 7.351351351351352e-05,
"loss": 0.12,
"step": 123
},
{
"epoch": 6.533333333333333,
"grad_norm": 0.6156823039054871,
"learning_rate": 7.243243243243245e-05,
"loss": 0.1081,
"step": 124
},
{
"epoch": 6.586666666666667,
"grad_norm": 0.8576733469963074,
"learning_rate": 7.135135135135136e-05,
"loss": 0.1332,
"step": 125
},
{
"epoch": 6.64,
"grad_norm": 0.7912089824676514,
"learning_rate": 7.027027027027028e-05,
"loss": 0.1283,
"step": 126
},
{
"epoch": 6.693333333333333,
"grad_norm": 0.8497866988182068,
"learning_rate": 6.91891891891892e-05,
"loss": 0.1459,
"step": 127
},
{
"epoch": 6.746666666666667,
"grad_norm": 0.7368230223655701,
"learning_rate": 6.810810810810811e-05,
"loss": 0.1263,
"step": 128
},
{
"epoch": 6.8,
"grad_norm": 0.7851323485374451,
"learning_rate": 6.702702702702704e-05,
"loss": 0.1257,
"step": 129
},
{
"epoch": 6.8533333333333335,
"grad_norm": 0.7375195622444153,
"learning_rate": 6.594594594594596e-05,
"loss": 0.126,
"step": 130
},
{
"epoch": 6.906666666666666,
"grad_norm": 0.8455854654312134,
"learning_rate": 6.486486486486487e-05,
"loss": 0.1818,
"step": 131
},
{
"epoch": 6.96,
"grad_norm": 0.7988014817237854,
"learning_rate": 6.378378378378379e-05,
"loss": 0.1416,
"step": 132
},
{
"epoch": 7.0,
"grad_norm": 1.181761622428894,
"learning_rate": 6.27027027027027e-05,
"loss": 0.3061,
"step": 133
},
{
"epoch": 7.053333333333334,
"grad_norm": 0.7475009560585022,
"learning_rate": 6.162162162162163e-05,
"loss": 0.1332,
"step": 134
},
{
"epoch": 7.1066666666666665,
"grad_norm": 0.6371139287948608,
"learning_rate": 6.0540540540540543e-05,
"loss": 0.0831,
"step": 135
},
{
"epoch": 7.16,
"grad_norm": 0.5655011534690857,
"learning_rate": 5.9459459459459466e-05,
"loss": 0.0822,
"step": 136
},
{
"epoch": 7.213333333333333,
"grad_norm": 0.6641082763671875,
"learning_rate": 5.837837837837838e-05,
"loss": 0.1068,
"step": 137
},
{
"epoch": 7.266666666666667,
"grad_norm": 0.5877074599266052,
"learning_rate": 5.7297297297297305e-05,
"loss": 0.0737,
"step": 138
},
{
"epoch": 7.32,
"grad_norm": 0.7259334325790405,
"learning_rate": 5.621621621621622e-05,
"loss": 0.1217,
"step": 139
},
{
"epoch": 7.373333333333333,
"grad_norm": 0.5484410524368286,
"learning_rate": 5.5135135135135144e-05,
"loss": 0.0547,
"step": 140
},
{
"epoch": 7.426666666666667,
"grad_norm": 0.7040739059448242,
"learning_rate": 5.405405405405406e-05,
"loss": 0.0855,
"step": 141
},
{
"epoch": 7.48,
"grad_norm": 0.7551671266555786,
"learning_rate": 5.2972972972972976e-05,
"loss": 0.1419,
"step": 142
},
{
"epoch": 7.533333333333333,
"grad_norm": 0.7220690846443176,
"learning_rate": 5.18918918918919e-05,
"loss": 0.09,
"step": 143
},
{
"epoch": 7.586666666666667,
"grad_norm": 0.7653244137763977,
"learning_rate": 5.0810810810810815e-05,
"loss": 0.0959,
"step": 144
},
{
"epoch": 7.64,
"grad_norm": 0.8557524681091309,
"learning_rate": 4.972972972972974e-05,
"loss": 0.1038,
"step": 145
},
{
"epoch": 7.693333333333333,
"grad_norm": 0.8686397671699524,
"learning_rate": 4.8648648648648654e-05,
"loss": 0.063,
"step": 146
},
{
"epoch": 7.746666666666667,
"grad_norm": 0.6569188237190247,
"learning_rate": 4.756756756756757e-05,
"loss": 0.0566,
"step": 147
},
{
"epoch": 7.8,
"grad_norm": 0.8147929906845093,
"learning_rate": 4.648648648648649e-05,
"loss": 0.0697,
"step": 148
},
{
"epoch": 7.8533333333333335,
"grad_norm": 0.8243633508682251,
"learning_rate": 4.540540540540541e-05,
"loss": 0.0882,
"step": 149
},
{
"epoch": 7.906666666666666,
"grad_norm": 0.8485711216926575,
"learning_rate": 4.432432432432433e-05,
"loss": 0.0799,
"step": 150
},
{
"epoch": 7.96,
"grad_norm": 0.9228702187538147,
"learning_rate": 4.324324324324325e-05,
"loss": 0.0863,
"step": 151
},
{
"epoch": 8.0,
"grad_norm": 1.06531822681427,
"learning_rate": 4.2162162162162164e-05,
"loss": 0.1346,
"step": 152
},
{
"epoch": 8.053333333333333,
"grad_norm": 0.7236900329589844,
"learning_rate": 4.108108108108109e-05,
"loss": 0.0868,
"step": 153
},
{
"epoch": 8.106666666666667,
"grad_norm": 0.48567166924476624,
"learning_rate": 4e-05,
"loss": 0.0375,
"step": 154
},
{
"epoch": 8.16,
"grad_norm": 0.7095057964324951,
"learning_rate": 3.8918918918918926e-05,
"loss": 0.0971,
"step": 155
},
{
"epoch": 8.213333333333333,
"grad_norm": 0.7046399116516113,
"learning_rate": 3.783783783783784e-05,
"loss": 0.0716,
"step": 156
},
{
"epoch": 8.266666666666667,
"grad_norm": 0.6369104981422424,
"learning_rate": 3.675675675675676e-05,
"loss": 0.0702,
"step": 157
},
{
"epoch": 8.32,
"grad_norm": 0.6888811588287354,
"learning_rate": 3.567567567567568e-05,
"loss": 0.0607,
"step": 158
},
{
"epoch": 8.373333333333333,
"grad_norm": 0.6034691333770752,
"learning_rate": 3.45945945945946e-05,
"loss": 0.0453,
"step": 159
},
{
"epoch": 8.426666666666666,
"grad_norm": 0.6416992545127869,
"learning_rate": 3.351351351351352e-05,
"loss": 0.0523,
"step": 160
},
{
"epoch": 8.48,
"grad_norm": 0.6690638661384583,
"learning_rate": 3.2432432432432436e-05,
"loss": 0.067,
"step": 161
},
{
"epoch": 8.533333333333333,
"grad_norm": 0.5749509334564209,
"learning_rate": 3.135135135135135e-05,
"loss": 0.0514,
"step": 162
},
{
"epoch": 8.586666666666666,
"grad_norm": 0.7911456227302551,
"learning_rate": 3.0270270270270272e-05,
"loss": 0.0687,
"step": 163
},
{
"epoch": 8.64,
"grad_norm": 0.6897225975990295,
"learning_rate": 2.918918918918919e-05,
"loss": 0.0371,
"step": 164
},
{
"epoch": 8.693333333333333,
"grad_norm": 0.6747151613235474,
"learning_rate": 2.810810810810811e-05,
"loss": 0.0405,
"step": 165
},
{
"epoch": 8.746666666666666,
"grad_norm": 0.6985137462615967,
"learning_rate": 2.702702702702703e-05,
"loss": 0.0399,
"step": 166
},
{
"epoch": 8.8,
"grad_norm": 0.64153653383255,
"learning_rate": 2.594594594594595e-05,
"loss": 0.0493,
"step": 167
},
{
"epoch": 8.853333333333333,
"grad_norm": 0.6300393342971802,
"learning_rate": 2.486486486486487e-05,
"loss": 0.0312,
"step": 168
},
{
"epoch": 8.906666666666666,
"grad_norm": 0.47996580600738525,
"learning_rate": 2.3783783783783785e-05,
"loss": 0.0315,
"step": 169
},
{
"epoch": 8.96,
"grad_norm": 0.6305020451545715,
"learning_rate": 2.2702702702702705e-05,
"loss": 0.0359,
"step": 170
},
{
"epoch": 9.0,
"grad_norm": 0.6539890766143799,
"learning_rate": 2.1621621621621624e-05,
"loss": 0.0328,
"step": 171
},
{
"epoch": 9.053333333333333,
"grad_norm": 0.47058215737342834,
"learning_rate": 2.0540540540540544e-05,
"loss": 0.0303,
"step": 172
},
{
"epoch": 9.106666666666667,
"grad_norm": 0.36159807443618774,
"learning_rate": 1.9459459459459463e-05,
"loss": 0.0148,
"step": 173
},
{
"epoch": 9.16,
"grad_norm": 0.47357675433158875,
"learning_rate": 1.837837837837838e-05,
"loss": 0.0357,
"step": 174
},
{
"epoch": 9.213333333333333,
"grad_norm": 0.5119134187698364,
"learning_rate": 1.72972972972973e-05,
"loss": 0.0378,
"step": 175
},
{
"epoch": 9.266666666666667,
"grad_norm": 0.3982938230037689,
"learning_rate": 1.6216216216216218e-05,
"loss": 0.0189,
"step": 176
},
{
"epoch": 9.32,
"grad_norm": 0.4229731559753418,
"learning_rate": 1.5135135135135136e-05,
"loss": 0.0232,
"step": 177
},
{
"epoch": 9.373333333333333,
"grad_norm": 0.5164742469787598,
"learning_rate": 1.4054054054054055e-05,
"loss": 0.0416,
"step": 178
},
{
"epoch": 9.426666666666666,
"grad_norm": 0.6268206834793091,
"learning_rate": 1.2972972972972975e-05,
"loss": 0.0458,
"step": 179
},
{
"epoch": 9.48,
"grad_norm": 0.6097092032432556,
"learning_rate": 1.1891891891891893e-05,
"loss": 0.038,
"step": 180
},
{
"epoch": 9.533333333333333,
"grad_norm": 0.537212610244751,
"learning_rate": 1.0810810810810812e-05,
"loss": 0.0237,
"step": 181
},
{
"epoch": 9.586666666666666,
"grad_norm": 0.4725726842880249,
"learning_rate": 9.729729729729732e-06,
"loss": 0.025,
"step": 182
},
{
"epoch": 9.64,
"grad_norm": 0.3361439108848572,
"learning_rate": 8.64864864864865e-06,
"loss": 0.012,
"step": 183
},
{
"epoch": 9.693333333333333,
"grad_norm": 0.529528796672821,
"learning_rate": 7.567567567567568e-06,
"loss": 0.0398,
"step": 184
},
{
"epoch": 9.746666666666666,
"grad_norm": 0.4508318603038788,
"learning_rate": 6.486486486486487e-06,
"loss": 0.0245,
"step": 185
},
{
"epoch": 9.8,
"grad_norm": 0.4403272569179535,
"learning_rate": 5.405405405405406e-06,
"loss": 0.023,
"step": 186
},
{
"epoch": 9.853333333333333,
"grad_norm": 0.5844480395317078,
"learning_rate": 4.324324324324325e-06,
"loss": 0.036,
"step": 187
},
{
"epoch": 9.906666666666666,
"grad_norm": 0.48860466480255127,
"learning_rate": 3.2432432432432437e-06,
"loss": 0.0245,
"step": 188
},
{
"epoch": 9.96,
"grad_norm": 0.5813486576080322,
"learning_rate": 2.1621621621621623e-06,
"loss": 0.0356,
"step": 189
},
{
"epoch": 10.0,
"grad_norm": 0.557105541229248,
"learning_rate": 1.0810810810810812e-06,
"loss": 0.0326,
"step": 190
}
],
"logging_steps": 1,
"max_steps": 190,
"num_input_tokens_seen": 0,
"num_train_epochs": 10,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 3.126061441746144e+16,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}