elissoncardoso1 commited on
Commit
e9710f8
·
verified ·
1 Parent(s): 2951ecf

Upload checkpoint-1929\trainer_state.json with huggingface_hub

Browse files
Files changed (1) hide show
  1. checkpoint-1929//trainer_state.json +1402 -0
checkpoint-1929//trainer_state.json ADDED
@@ -0,0 +1,1402 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_global_step": 1500,
3
+ "best_metric": 1.4234389066696167,
4
+ "best_model_checkpoint": "./finetuned_model\\checkpoint-1500",
5
+ "epoch": 3.0,
6
+ "eval_steps": 500,
7
+ "global_step": 1929,
8
+ "is_hyper_param_search": false,
9
+ "is_local_process_zero": true,
10
+ "is_world_process_zero": true,
11
+ "log_history": [
12
+ {
13
+ "epoch": 0.015570260801868432,
14
+ "grad_norm": 0.20217418670654297,
15
+ "learning_rate": 1.8e-05,
16
+ "loss": 2.2788,
17
+ "step": 10
18
+ },
19
+ {
20
+ "epoch": 0.031140521603736863,
21
+ "grad_norm": 0.21721592545509338,
22
+ "learning_rate": 3.8e-05,
23
+ "loss": 2.2974,
24
+ "step": 20
25
+ },
26
+ {
27
+ "epoch": 0.04671078240560529,
28
+ "grad_norm": 0.18691149353981018,
29
+ "learning_rate": 5.8e-05,
30
+ "loss": 2.2254,
31
+ "step": 30
32
+ },
33
+ {
34
+ "epoch": 0.06228104320747373,
35
+ "grad_norm": 0.2627484202384949,
36
+ "learning_rate": 7.800000000000001e-05,
37
+ "loss": 2.1722,
38
+ "step": 40
39
+ },
40
+ {
41
+ "epoch": 0.07785130400934216,
42
+ "grad_norm": 0.4096653461456299,
43
+ "learning_rate": 9.8e-05,
44
+ "loss": 2.0316,
45
+ "step": 50
46
+ },
47
+ {
48
+ "epoch": 0.09342156481121058,
49
+ "grad_norm": 2.0437684059143066,
50
+ "learning_rate": 0.000118,
51
+ "loss": 1.8762,
52
+ "step": 60
53
+ },
54
+ {
55
+ "epoch": 0.10899182561307902,
56
+ "grad_norm": 0.2537792921066284,
57
+ "learning_rate": 0.000138,
58
+ "loss": 1.8509,
59
+ "step": 70
60
+ },
61
+ {
62
+ "epoch": 0.12456208641494745,
63
+ "grad_norm": 0.25586166977882385,
64
+ "learning_rate": 0.00015800000000000002,
65
+ "loss": 1.7,
66
+ "step": 80
67
+ },
68
+ {
69
+ "epoch": 0.1401323472168159,
70
+ "grad_norm": 0.2822591960430145,
71
+ "learning_rate": 0.00017800000000000002,
72
+ "loss": 1.7905,
73
+ "step": 90
74
+ },
75
+ {
76
+ "epoch": 0.15570260801868432,
77
+ "grad_norm": 0.2682412564754486,
78
+ "learning_rate": 0.00019800000000000002,
79
+ "loss": 1.7157,
80
+ "step": 100
81
+ },
82
+ {
83
+ "epoch": 0.17127286882055273,
84
+ "grad_norm": 0.30413559079170227,
85
+ "learning_rate": 0.00019901585565882995,
86
+ "loss": 1.6886,
87
+ "step": 110
88
+ },
89
+ {
90
+ "epoch": 0.18684312962242117,
91
+ "grad_norm": 0.30645519495010376,
92
+ "learning_rate": 0.00019792236194641883,
93
+ "loss": 1.6956,
94
+ "step": 120
95
+ },
96
+ {
97
+ "epoch": 0.2024133904242896,
98
+ "grad_norm": 0.3002190589904785,
99
+ "learning_rate": 0.00019682886823400766,
100
+ "loss": 1.6521,
101
+ "step": 130
102
+ },
103
+ {
104
+ "epoch": 0.21798365122615804,
105
+ "grad_norm": 0.29828041791915894,
106
+ "learning_rate": 0.0001957353745215965,
107
+ "loss": 1.6584,
108
+ "step": 140
109
+ },
110
+ {
111
+ "epoch": 0.23355391202802647,
112
+ "grad_norm": 0.301546573638916,
113
+ "learning_rate": 0.00019464188080918536,
114
+ "loss": 1.6613,
115
+ "step": 150
116
+ },
117
+ {
118
+ "epoch": 0.2491241728298949,
119
+ "grad_norm": 0.347465842962265,
120
+ "learning_rate": 0.00019354838709677422,
121
+ "loss": 1.6284,
122
+ "step": 160
123
+ },
124
+ {
125
+ "epoch": 0.2646944336317633,
126
+ "grad_norm": 0.31749042868614197,
127
+ "learning_rate": 0.00019245489338436304,
128
+ "loss": 1.5873,
129
+ "step": 170
130
+ },
131
+ {
132
+ "epoch": 0.2802646944336318,
133
+ "grad_norm": 0.32523462176322937,
134
+ "learning_rate": 0.0001913613996719519,
135
+ "loss": 1.5703,
136
+ "step": 180
137
+ },
138
+ {
139
+ "epoch": 0.2958349552355002,
140
+ "grad_norm": 0.3478928804397583,
141
+ "learning_rate": 0.00019026790595954074,
142
+ "loss": 1.6148,
143
+ "step": 190
144
+ },
145
+ {
146
+ "epoch": 0.31140521603736865,
147
+ "grad_norm": 0.3863014578819275,
148
+ "learning_rate": 0.0001891744122471296,
149
+ "loss": 1.6695,
150
+ "step": 200
151
+ },
152
+ {
153
+ "epoch": 0.32697547683923706,
154
+ "grad_norm": 0.31040167808532715,
155
+ "learning_rate": 0.00018808091853471842,
156
+ "loss": 1.636,
157
+ "step": 210
158
+ },
159
+ {
160
+ "epoch": 0.34254573764110546,
161
+ "grad_norm": 0.34434080123901367,
162
+ "learning_rate": 0.0001869874248223073,
163
+ "loss": 1.6309,
164
+ "step": 220
165
+ },
166
+ {
167
+ "epoch": 0.3581159984429739,
168
+ "grad_norm": 0.35271912813186646,
169
+ "learning_rate": 0.00018589393110989613,
170
+ "loss": 1.5183,
171
+ "step": 230
172
+ },
173
+ {
174
+ "epoch": 0.37368625924484233,
175
+ "grad_norm": 0.3652435839176178,
176
+ "learning_rate": 0.00018480043739748498,
177
+ "loss": 1.5748,
178
+ "step": 240
179
+ },
180
+ {
181
+ "epoch": 0.3892565200467108,
182
+ "grad_norm": 0.3423960208892822,
183
+ "learning_rate": 0.00018370694368507383,
184
+ "loss": 1.6099,
185
+ "step": 250
186
+ },
187
+ {
188
+ "epoch": 0.4048267808485792,
189
+ "grad_norm": 0.3742424249649048,
190
+ "learning_rate": 0.00018261344997266268,
191
+ "loss": 1.6456,
192
+ "step": 260
193
+ },
194
+ {
195
+ "epoch": 0.42039704165044767,
196
+ "grad_norm": 0.36541569232940674,
197
+ "learning_rate": 0.0001815199562602515,
198
+ "loss": 1.5256,
199
+ "step": 270
200
+ },
201
+ {
202
+ "epoch": 0.4359673024523161,
203
+ "grad_norm": 0.32436609268188477,
204
+ "learning_rate": 0.00018042646254784036,
205
+ "loss": 1.6154,
206
+ "step": 280
207
+ },
208
+ {
209
+ "epoch": 0.4515375632541845,
210
+ "grad_norm": 0.3482036888599396,
211
+ "learning_rate": 0.0001793329688354292,
212
+ "loss": 1.5598,
213
+ "step": 290
214
+ },
215
+ {
216
+ "epoch": 0.46710782405605294,
217
+ "grad_norm": 0.32296016812324524,
218
+ "learning_rate": 0.00017823947512301804,
219
+ "loss": 1.557,
220
+ "step": 300
221
+ },
222
+ {
223
+ "epoch": 0.48267808485792135,
224
+ "grad_norm": 0.3758240044116974,
225
+ "learning_rate": 0.0001771459814106069,
226
+ "loss": 1.5237,
227
+ "step": 310
228
+ },
229
+ {
230
+ "epoch": 0.4982483456597898,
231
+ "grad_norm": 0.3592066466808319,
232
+ "learning_rate": 0.00017605248769819574,
233
+ "loss": 1.5331,
234
+ "step": 320
235
+ },
236
+ {
237
+ "epoch": 0.5138186064616582,
238
+ "grad_norm": 0.3503170907497406,
239
+ "learning_rate": 0.0001749589939857846,
240
+ "loss": 1.5598,
241
+ "step": 330
242
+ },
243
+ {
244
+ "epoch": 0.5293888672635266,
245
+ "grad_norm": 0.3589423894882202,
246
+ "learning_rate": 0.00017386550027337342,
247
+ "loss": 1.5694,
248
+ "step": 340
249
+ },
250
+ {
251
+ "epoch": 0.5449591280653951,
252
+ "grad_norm": 0.4173847436904907,
253
+ "learning_rate": 0.0001727720065609623,
254
+ "loss": 1.6035,
255
+ "step": 350
256
+ },
257
+ {
258
+ "epoch": 0.5605293888672636,
259
+ "grad_norm": 0.3429367244243622,
260
+ "learning_rate": 0.00017167851284855112,
261
+ "loss": 1.5636,
262
+ "step": 360
263
+ },
264
+ {
265
+ "epoch": 0.576099649669132,
266
+ "grad_norm": 0.3459906280040741,
267
+ "learning_rate": 0.00017058501913613997,
268
+ "loss": 1.4638,
269
+ "step": 370
270
+ },
271
+ {
272
+ "epoch": 0.5916699104710004,
273
+ "grad_norm": 0.36562731862068176,
274
+ "learning_rate": 0.00016949152542372882,
275
+ "loss": 1.5236,
276
+ "step": 380
277
+ },
278
+ {
279
+ "epoch": 0.6072401712728688,
280
+ "grad_norm": 0.4281690716743469,
281
+ "learning_rate": 0.00016839803171131768,
282
+ "loss": 1.5328,
283
+ "step": 390
284
+ },
285
+ {
286
+ "epoch": 0.6228104320747373,
287
+ "grad_norm": 0.3289957642555237,
288
+ "learning_rate": 0.0001673045379989065,
289
+ "loss": 1.5511,
290
+ "step": 400
291
+ },
292
+ {
293
+ "epoch": 0.6383806928766057,
294
+ "grad_norm": 0.34759992361068726,
295
+ "learning_rate": 0.00016621104428649535,
296
+ "loss": 1.5047,
297
+ "step": 410
298
+ },
299
+ {
300
+ "epoch": 0.6539509536784741,
301
+ "grad_norm": 0.36279717087745667,
302
+ "learning_rate": 0.0001651175505740842,
303
+ "loss": 1.5314,
304
+ "step": 420
305
+ },
306
+ {
307
+ "epoch": 0.6695212144803425,
308
+ "grad_norm": 0.3549306094646454,
309
+ "learning_rate": 0.00016402405686167306,
310
+ "loss": 1.5158,
311
+ "step": 430
312
+ },
313
+ {
314
+ "epoch": 0.6850914752822109,
315
+ "grad_norm": 0.37329429388046265,
316
+ "learning_rate": 0.00016293056314926188,
317
+ "loss": 1.4927,
318
+ "step": 440
319
+ },
320
+ {
321
+ "epoch": 0.7006617360840794,
322
+ "grad_norm": 0.3531767427921295,
323
+ "learning_rate": 0.00016183706943685076,
324
+ "loss": 1.5568,
325
+ "step": 450
326
+ },
327
+ {
328
+ "epoch": 0.7162319968859479,
329
+ "grad_norm": 0.3837789297103882,
330
+ "learning_rate": 0.0001607435757244396,
331
+ "loss": 1.5042,
332
+ "step": 460
333
+ },
334
+ {
335
+ "epoch": 0.7318022576878163,
336
+ "grad_norm": 0.3604554533958435,
337
+ "learning_rate": 0.00015965008201202844,
338
+ "loss": 1.5362,
339
+ "step": 470
340
+ },
341
+ {
342
+ "epoch": 0.7473725184896847,
343
+ "grad_norm": 0.4049264192581177,
344
+ "learning_rate": 0.0001585565882996173,
345
+ "loss": 1.5754,
346
+ "step": 480
347
+ },
348
+ {
349
+ "epoch": 0.7629427792915532,
350
+ "grad_norm": 0.3917747139930725,
351
+ "learning_rate": 0.00015746309458720614,
352
+ "loss": 1.5257,
353
+ "step": 490
354
+ },
355
+ {
356
+ "epoch": 0.7785130400934216,
357
+ "grad_norm": 0.37551721930503845,
358
+ "learning_rate": 0.00015636960087479497,
359
+ "loss": 1.5712,
360
+ "step": 500
361
+ },
362
+ {
363
+ "epoch": 0.7785130400934216,
364
+ "eval_loss": 1.5167639255523682,
365
+ "eval_runtime": 260.2191,
366
+ "eval_samples_per_second": 9.872,
367
+ "eval_steps_per_second": 1.237,
368
+ "step": 500
369
+ },
370
+ {
371
+ "epoch": 0.79408330089529,
372
+ "grad_norm": 0.4406639635562897,
373
+ "learning_rate": 0.00015527610716238382,
374
+ "loss": 1.5319,
375
+ "step": 510
376
+ },
377
+ {
378
+ "epoch": 0.8096535616971584,
379
+ "grad_norm": 0.37547779083251953,
380
+ "learning_rate": 0.00015418261344997267,
381
+ "loss": 1.535,
382
+ "step": 520
383
+ },
384
+ {
385
+ "epoch": 0.8252238224990268,
386
+ "grad_norm": 0.3571765422821045,
387
+ "learning_rate": 0.00015308911973756152,
388
+ "loss": 1.4872,
389
+ "step": 530
390
+ },
391
+ {
392
+ "epoch": 0.8407940833008953,
393
+ "grad_norm": 0.36505362391471863,
394
+ "learning_rate": 0.00015199562602515035,
395
+ "loss": 1.5346,
396
+ "step": 540
397
+ },
398
+ {
399
+ "epoch": 0.8563643441027637,
400
+ "grad_norm": 0.34871625900268555,
401
+ "learning_rate": 0.00015090213231273923,
402
+ "loss": 1.5243,
403
+ "step": 550
404
+ },
405
+ {
406
+ "epoch": 0.8719346049046321,
407
+ "grad_norm": 0.374802827835083,
408
+ "learning_rate": 0.00014980863860032805,
409
+ "loss": 1.5031,
410
+ "step": 560
411
+ },
412
+ {
413
+ "epoch": 0.8875048657065006,
414
+ "grad_norm": 0.41518205404281616,
415
+ "learning_rate": 0.00014871514488791688,
416
+ "loss": 1.5265,
417
+ "step": 570
418
+ },
419
+ {
420
+ "epoch": 0.903075126508369,
421
+ "grad_norm": 0.3830599784851074,
422
+ "learning_rate": 0.00014762165117550576,
423
+ "loss": 1.5212,
424
+ "step": 580
425
+ },
426
+ {
427
+ "epoch": 0.9186453873102375,
428
+ "grad_norm": 0.37755969166755676,
429
+ "learning_rate": 0.00014652815746309458,
430
+ "loss": 1.49,
431
+ "step": 590
432
+ },
433
+ {
434
+ "epoch": 0.9342156481121059,
435
+ "grad_norm": 0.3936685621738434,
436
+ "learning_rate": 0.00014543466375068343,
437
+ "loss": 1.5361,
438
+ "step": 600
439
+ },
440
+ {
441
+ "epoch": 0.9497859089139743,
442
+ "grad_norm": 0.35126620531082153,
443
+ "learning_rate": 0.0001443411700382723,
444
+ "loss": 1.5182,
445
+ "step": 610
446
+ },
447
+ {
448
+ "epoch": 0.9653561697158427,
449
+ "grad_norm": 0.4049900770187378,
450
+ "learning_rate": 0.00014324767632586114,
451
+ "loss": 1.5134,
452
+ "step": 620
453
+ },
454
+ {
455
+ "epoch": 0.9809264305177112,
456
+ "grad_norm": 0.39619603753089905,
457
+ "learning_rate": 0.00014215418261344996,
458
+ "loss": 1.4918,
459
+ "step": 630
460
+ },
461
+ {
462
+ "epoch": 0.9964966913195796,
463
+ "grad_norm": 0.38389134407043457,
464
+ "learning_rate": 0.00014106068890103882,
465
+ "loss": 1.5066,
466
+ "step": 640
467
+ },
468
+ {
469
+ "epoch": 1.0108991825613078,
470
+ "grad_norm": 0.3816758096218109,
471
+ "learning_rate": 0.00013996719518862767,
472
+ "loss": 1.4342,
473
+ "step": 650
474
+ },
475
+ {
476
+ "epoch": 1.0264694433631762,
477
+ "grad_norm": 0.3684230446815491,
478
+ "learning_rate": 0.00013887370147621652,
479
+ "loss": 1.509,
480
+ "step": 660
481
+ },
482
+ {
483
+ "epoch": 1.0420397041650449,
484
+ "grad_norm": 0.4102369248867035,
485
+ "learning_rate": 0.00013778020776380534,
486
+ "loss": 1.4011,
487
+ "step": 670
488
+ },
489
+ {
490
+ "epoch": 1.0576099649669133,
491
+ "grad_norm": 0.40174803137779236,
492
+ "learning_rate": 0.00013668671405139422,
493
+ "loss": 1.4155,
494
+ "step": 680
495
+ },
496
+ {
497
+ "epoch": 1.0731802257687817,
498
+ "grad_norm": 0.4212823510169983,
499
+ "learning_rate": 0.00013559322033898305,
500
+ "loss": 1.4078,
501
+ "step": 690
502
+ },
503
+ {
504
+ "epoch": 1.08875048657065,
505
+ "grad_norm": 0.41347914934158325,
506
+ "learning_rate": 0.0001344997266265719,
507
+ "loss": 1.4245,
508
+ "step": 700
509
+ },
510
+ {
511
+ "epoch": 1.1043207473725185,
512
+ "grad_norm": 0.3938431441783905,
513
+ "learning_rate": 0.00013340623291416075,
514
+ "loss": 1.3777,
515
+ "step": 710
516
+ },
517
+ {
518
+ "epoch": 1.119891008174387,
519
+ "grad_norm": 0.4172612130641937,
520
+ "learning_rate": 0.0001323127392017496,
521
+ "loss": 1.4435,
522
+ "step": 720
523
+ },
524
+ {
525
+ "epoch": 1.1354612689762553,
526
+ "grad_norm": 0.4305002987384796,
527
+ "learning_rate": 0.00013121924548933843,
528
+ "loss": 1.479,
529
+ "step": 730
530
+ },
531
+ {
532
+ "epoch": 1.1510315297781237,
533
+ "grad_norm": 0.4031375050544739,
534
+ "learning_rate": 0.0001301257517769273,
535
+ "loss": 1.4107,
536
+ "step": 740
537
+ },
538
+ {
539
+ "epoch": 1.1666017905799921,
540
+ "grad_norm": 0.4102884829044342,
541
+ "learning_rate": 0.00012903225806451613,
542
+ "loss": 1.5123,
543
+ "step": 750
544
+ },
545
+ {
546
+ "epoch": 1.1821720513818605,
547
+ "grad_norm": 0.44275203347206116,
548
+ "learning_rate": 0.00012793876435210499,
549
+ "loss": 1.426,
550
+ "step": 760
551
+ },
552
+ {
553
+ "epoch": 1.1977423121837292,
554
+ "grad_norm": 0.4467061758041382,
555
+ "learning_rate": 0.00012684527063969384,
556
+ "loss": 1.4495,
557
+ "step": 770
558
+ },
559
+ {
560
+ "epoch": 1.2133125729855976,
561
+ "grad_norm": 0.40034279227256775,
562
+ "learning_rate": 0.0001257517769272827,
563
+ "loss": 1.4541,
564
+ "step": 780
565
+ },
566
+ {
567
+ "epoch": 1.228882833787466,
568
+ "grad_norm": 0.42505356669425964,
569
+ "learning_rate": 0.00012465828321487152,
570
+ "loss": 1.4767,
571
+ "step": 790
572
+ },
573
+ {
574
+ "epoch": 1.2444530945893344,
575
+ "grad_norm": 0.3754604458808899,
576
+ "learning_rate": 0.00012356478950246037,
577
+ "loss": 1.4144,
578
+ "step": 800
579
+ },
580
+ {
581
+ "epoch": 1.2600233553912028,
582
+ "grad_norm": 0.3871001601219177,
583
+ "learning_rate": 0.00012247129579004922,
584
+ "loss": 1.4618,
585
+ "step": 810
586
+ },
587
+ {
588
+ "epoch": 1.2755936161930712,
589
+ "grad_norm": 0.416062593460083,
590
+ "learning_rate": 0.00012137780207763807,
591
+ "loss": 1.4258,
592
+ "step": 820
593
+ },
594
+ {
595
+ "epoch": 1.2911638769949396,
596
+ "grad_norm": 0.3869543969631195,
597
+ "learning_rate": 0.00012028430836522691,
598
+ "loss": 1.379,
599
+ "step": 830
600
+ },
601
+ {
602
+ "epoch": 1.306734137796808,
603
+ "grad_norm": 0.4507176876068115,
604
+ "learning_rate": 0.00011919081465281574,
605
+ "loss": 1.4011,
606
+ "step": 840
607
+ },
608
+ {
609
+ "epoch": 1.3223043985986767,
610
+ "grad_norm": 0.4298593997955322,
611
+ "learning_rate": 0.0001180973209404046,
612
+ "loss": 1.3897,
613
+ "step": 850
614
+ },
615
+ {
616
+ "epoch": 1.337874659400545,
617
+ "grad_norm": 0.4016563296318054,
618
+ "learning_rate": 0.00011700382722799344,
619
+ "loss": 1.4004,
620
+ "step": 860
621
+ },
622
+ {
623
+ "epoch": 1.3534449202024135,
624
+ "grad_norm": 0.45489302277565,
625
+ "learning_rate": 0.00011591033351558229,
626
+ "loss": 1.3974,
627
+ "step": 870
628
+ },
629
+ {
630
+ "epoch": 1.3690151810042819,
631
+ "grad_norm": 0.4141370356082916,
632
+ "learning_rate": 0.00011481683980317113,
633
+ "loss": 1.4417,
634
+ "step": 880
635
+ },
636
+ {
637
+ "epoch": 1.3845854418061503,
638
+ "grad_norm": 0.4654589295387268,
639
+ "learning_rate": 0.00011372334609075998,
640
+ "loss": 1.479,
641
+ "step": 890
642
+ },
643
+ {
644
+ "epoch": 1.4001557026080187,
645
+ "grad_norm": 0.4696764051914215,
646
+ "learning_rate": 0.00011262985237834882,
647
+ "loss": 1.4009,
648
+ "step": 900
649
+ },
650
+ {
651
+ "epoch": 1.415725963409887,
652
+ "grad_norm": 0.4807955324649811,
653
+ "learning_rate": 0.00011153635866593767,
654
+ "loss": 1.3897,
655
+ "step": 910
656
+ },
657
+ {
658
+ "epoch": 1.4312962242117555,
659
+ "grad_norm": 0.5069774985313416,
660
+ "learning_rate": 0.00011044286495352651,
661
+ "loss": 1.431,
662
+ "step": 920
663
+ },
664
+ {
665
+ "epoch": 1.446866485013624,
666
+ "grad_norm": 0.43647122383117676,
667
+ "learning_rate": 0.00010934937124111538,
668
+ "loss": 1.4042,
669
+ "step": 930
670
+ },
671
+ {
672
+ "epoch": 1.4624367458154923,
673
+ "grad_norm": 0.43918347358703613,
674
+ "learning_rate": 0.0001082558775287042,
675
+ "loss": 1.4403,
676
+ "step": 940
677
+ },
678
+ {
679
+ "epoch": 1.4780070066173607,
680
+ "grad_norm": 0.39581167697906494,
681
+ "learning_rate": 0.00010716238381629307,
682
+ "loss": 1.4027,
683
+ "step": 950
684
+ },
685
+ {
686
+ "epoch": 1.4935772674192291,
687
+ "grad_norm": 0.42234891653060913,
688
+ "learning_rate": 0.0001060688901038819,
689
+ "loss": 1.4291,
690
+ "step": 960
691
+ },
692
+ {
693
+ "epoch": 1.5091475282210975,
694
+ "grad_norm": 0.40230894088745117,
695
+ "learning_rate": 0.00010497539639147076,
696
+ "loss": 1.3847,
697
+ "step": 970
698
+ },
699
+ {
700
+ "epoch": 1.5247177890229662,
701
+ "grad_norm": 0.41914451122283936,
702
+ "learning_rate": 0.0001038819026790596,
703
+ "loss": 1.364,
704
+ "step": 980
705
+ },
706
+ {
707
+ "epoch": 1.5402880498248346,
708
+ "grad_norm": 0.4406910240650177,
709
+ "learning_rate": 0.00010278840896664845,
710
+ "loss": 1.4437,
711
+ "step": 990
712
+ },
713
+ {
714
+ "epoch": 1.555858310626703,
715
+ "grad_norm": 0.4232882857322693,
716
+ "learning_rate": 0.00010169491525423729,
717
+ "loss": 1.4319,
718
+ "step": 1000
719
+ },
720
+ {
721
+ "epoch": 1.555858310626703,
722
+ "eval_loss": 1.4522794485092163,
723
+ "eval_runtime": 260.6355,
724
+ "eval_samples_per_second": 9.857,
725
+ "eval_steps_per_second": 1.235,
726
+ "step": 1000
727
+ },
728
+ {
729
+ "epoch": 1.5714285714285714,
730
+ "grad_norm": 0.41939419507980347,
731
+ "learning_rate": 0.00010060142154182615,
732
+ "loss": 1.4449,
733
+ "step": 1010
734
+ },
735
+ {
736
+ "epoch": 1.58699883223044,
737
+ "grad_norm": 0.44079649448394775,
738
+ "learning_rate": 9.950792782941498e-05,
739
+ "loss": 1.4285,
740
+ "step": 1020
741
+ },
742
+ {
743
+ "epoch": 1.6025690930323084,
744
+ "grad_norm": 0.3999095857143402,
745
+ "learning_rate": 9.841443411700383e-05,
746
+ "loss": 1.4375,
747
+ "step": 1030
748
+ },
749
+ {
750
+ "epoch": 1.6181393538341768,
751
+ "grad_norm": 0.4581930637359619,
752
+ "learning_rate": 9.732094040459268e-05,
753
+ "loss": 1.4495,
754
+ "step": 1040
755
+ },
756
+ {
757
+ "epoch": 1.6337096146360452,
758
+ "grad_norm": 0.48736894130706787,
759
+ "learning_rate": 9.622744669218152e-05,
760
+ "loss": 1.4261,
761
+ "step": 1050
762
+ },
763
+ {
764
+ "epoch": 1.6492798754379137,
765
+ "grad_norm": 0.43217116594314575,
766
+ "learning_rate": 9.513395297977037e-05,
767
+ "loss": 1.4329,
768
+ "step": 1060
769
+ },
770
+ {
771
+ "epoch": 1.664850136239782,
772
+ "grad_norm": 0.46019837260246277,
773
+ "learning_rate": 9.404045926735921e-05,
774
+ "loss": 1.3978,
775
+ "step": 1070
776
+ },
777
+ {
778
+ "epoch": 1.6804203970416505,
779
+ "grad_norm": 0.45845848321914673,
780
+ "learning_rate": 9.294696555494806e-05,
781
+ "loss": 1.329,
782
+ "step": 1080
783
+ },
784
+ {
785
+ "epoch": 1.6959906578435189,
786
+ "grad_norm": 0.4310099184513092,
787
+ "learning_rate": 9.185347184253691e-05,
788
+ "loss": 1.3823,
789
+ "step": 1090
790
+ },
791
+ {
792
+ "epoch": 1.7115609186453873,
793
+ "grad_norm": 0.4994125962257385,
794
+ "learning_rate": 9.075997813012575e-05,
795
+ "loss": 1.4715,
796
+ "step": 1100
797
+ },
798
+ {
799
+ "epoch": 1.7271311794472557,
800
+ "grad_norm": 0.4259664714336395,
801
+ "learning_rate": 8.96664844177146e-05,
802
+ "loss": 1.3662,
803
+ "step": 1110
804
+ },
805
+ {
806
+ "epoch": 1.742701440249124,
807
+ "grad_norm": 0.4763588309288025,
808
+ "learning_rate": 8.857299070530344e-05,
809
+ "loss": 1.4313,
810
+ "step": 1120
811
+ },
812
+ {
813
+ "epoch": 1.7582717010509925,
814
+ "grad_norm": 0.43702080845832825,
815
+ "learning_rate": 8.74794969928923e-05,
816
+ "loss": 1.3815,
817
+ "step": 1130
818
+ },
819
+ {
820
+ "epoch": 1.773841961852861,
821
+ "grad_norm": 0.41179555654525757,
822
+ "learning_rate": 8.638600328048115e-05,
823
+ "loss": 1.4042,
824
+ "step": 1140
825
+ },
826
+ {
827
+ "epoch": 1.7894122226547293,
828
+ "grad_norm": 0.469272255897522,
829
+ "learning_rate": 8.529250956806999e-05,
830
+ "loss": 1.4391,
831
+ "step": 1150
832
+ },
833
+ {
834
+ "epoch": 1.804982483456598,
835
+ "grad_norm": 0.4028104841709137,
836
+ "learning_rate": 8.419901585565884e-05,
837
+ "loss": 1.4205,
838
+ "step": 1160
839
+ },
840
+ {
841
+ "epoch": 1.8205527442584664,
842
+ "grad_norm": 0.44282203912734985,
843
+ "learning_rate": 8.310552214324768e-05,
844
+ "loss": 1.4767,
845
+ "step": 1170
846
+ },
847
+ {
848
+ "epoch": 1.8361230050603348,
849
+ "grad_norm": 0.43608203530311584,
850
+ "learning_rate": 8.201202843083653e-05,
851
+ "loss": 1.3755,
852
+ "step": 1180
853
+ },
854
+ {
855
+ "epoch": 1.8516932658622032,
856
+ "grad_norm": 0.4701242446899414,
857
+ "learning_rate": 8.091853471842538e-05,
858
+ "loss": 1.371,
859
+ "step": 1190
860
+ },
861
+ {
862
+ "epoch": 1.8672635266640716,
863
+ "grad_norm": 0.415041446685791,
864
+ "learning_rate": 7.982504100601422e-05,
865
+ "loss": 1.4174,
866
+ "step": 1200
867
+ },
868
+ {
869
+ "epoch": 1.8828337874659402,
870
+ "grad_norm": 0.38387399911880493,
871
+ "learning_rate": 7.873154729360307e-05,
872
+ "loss": 1.3444,
873
+ "step": 1210
874
+ },
875
+ {
876
+ "epoch": 1.8984040482678086,
877
+ "grad_norm": 0.45225557684898376,
878
+ "learning_rate": 7.763805358119191e-05,
879
+ "loss": 1.3988,
880
+ "step": 1220
881
+ },
882
+ {
883
+ "epoch": 1.913974309069677,
884
+ "grad_norm": 0.47453585267066956,
885
+ "learning_rate": 7.654455986878076e-05,
886
+ "loss": 1.3585,
887
+ "step": 1230
888
+ },
889
+ {
890
+ "epoch": 1.9295445698715454,
891
+ "grad_norm": 0.45056021213531494,
892
+ "learning_rate": 7.545106615636961e-05,
893
+ "loss": 1.3662,
894
+ "step": 1240
895
+ },
896
+ {
897
+ "epoch": 1.9451148306734138,
898
+ "grad_norm": 0.40802398324012756,
899
+ "learning_rate": 7.435757244395844e-05,
900
+ "loss": 1.3917,
901
+ "step": 1250
902
+ },
903
+ {
904
+ "epoch": 1.9606850914752822,
905
+ "grad_norm": 0.4195387661457062,
906
+ "learning_rate": 7.326407873154729e-05,
907
+ "loss": 1.4025,
908
+ "step": 1260
909
+ },
910
+ {
911
+ "epoch": 1.9762553522771507,
912
+ "grad_norm": 0.41928455233573914,
913
+ "learning_rate": 7.217058501913614e-05,
914
+ "loss": 1.3368,
915
+ "step": 1270
916
+ },
917
+ {
918
+ "epoch": 1.991825613079019,
919
+ "grad_norm": 0.5062233209609985,
920
+ "learning_rate": 7.107709130672498e-05,
921
+ "loss": 1.4474,
922
+ "step": 1280
923
+ },
924
+ {
925
+ "epoch": 2.0062281043207473,
926
+ "grad_norm": 0.42787787318229675,
927
+ "learning_rate": 6.998359759431383e-05,
928
+ "loss": 1.4169,
929
+ "step": 1290
930
+ },
931
+ {
932
+ "epoch": 2.0217983651226157,
933
+ "grad_norm": 0.4181097149848938,
934
+ "learning_rate": 6.889010388190267e-05,
935
+ "loss": 1.3275,
936
+ "step": 1300
937
+ },
938
+ {
939
+ "epoch": 2.037368625924484,
940
+ "grad_norm": 0.43423986434936523,
941
+ "learning_rate": 6.779661016949152e-05,
942
+ "loss": 1.3302,
943
+ "step": 1310
944
+ },
945
+ {
946
+ "epoch": 2.0529388867263525,
947
+ "grad_norm": 0.4697537124156952,
948
+ "learning_rate": 6.670311645708038e-05,
949
+ "loss": 1.4016,
950
+ "step": 1320
951
+ },
952
+ {
953
+ "epoch": 2.068509147528221,
954
+ "grad_norm": 0.5001850128173828,
955
+ "learning_rate": 6.560962274466922e-05,
956
+ "loss": 1.3086,
957
+ "step": 1330
958
+ },
959
+ {
960
+ "epoch": 2.0840794083300898,
961
+ "grad_norm": 0.4848284125328064,
962
+ "learning_rate": 6.451612903225807e-05,
963
+ "loss": 1.337,
964
+ "step": 1340
965
+ },
966
+ {
967
+ "epoch": 2.099649669131958,
968
+ "grad_norm": 0.470833420753479,
969
+ "learning_rate": 6.342263531984692e-05,
970
+ "loss": 1.3745,
971
+ "step": 1350
972
+ },
973
+ {
974
+ "epoch": 2.1152199299338266,
975
+ "grad_norm": 0.42497771978378296,
976
+ "learning_rate": 6.232914160743576e-05,
977
+ "loss": 1.3237,
978
+ "step": 1360
979
+ },
980
+ {
981
+ "epoch": 2.130790190735695,
982
+ "grad_norm": 0.4388049840927124,
983
+ "learning_rate": 6.123564789502461e-05,
984
+ "loss": 1.3423,
985
+ "step": 1370
986
+ },
987
+ {
988
+ "epoch": 2.1463604515375634,
989
+ "grad_norm": 0.45158448815345764,
990
+ "learning_rate": 6.0142154182613455e-05,
991
+ "loss": 1.3364,
992
+ "step": 1380
993
+ },
994
+ {
995
+ "epoch": 2.161930712339432,
996
+ "grad_norm": 0.47724074125289917,
997
+ "learning_rate": 5.90486604702023e-05,
998
+ "loss": 1.3365,
999
+ "step": 1390
1000
+ },
1001
+ {
1002
+ "epoch": 2.1775009731413,
1003
+ "grad_norm": 0.49025580286979675,
1004
+ "learning_rate": 5.7955166757791146e-05,
1005
+ "loss": 1.3243,
1006
+ "step": 1400
1007
+ },
1008
+ {
1009
+ "epoch": 2.1930712339431686,
1010
+ "grad_norm": 0.551092267036438,
1011
+ "learning_rate": 5.686167304537999e-05,
1012
+ "loss": 1.3865,
1013
+ "step": 1410
1014
+ },
1015
+ {
1016
+ "epoch": 2.208641494745037,
1017
+ "grad_norm": 0.4625059962272644,
1018
+ "learning_rate": 5.5768179332968836e-05,
1019
+ "loss": 1.3203,
1020
+ "step": 1420
1021
+ },
1022
+ {
1023
+ "epoch": 2.2242117555469054,
1024
+ "grad_norm": 0.4594584107398987,
1025
+ "learning_rate": 5.467468562055769e-05,
1026
+ "loss": 1.3088,
1027
+ "step": 1430
1028
+ },
1029
+ {
1030
+ "epoch": 2.239782016348774,
1031
+ "grad_norm": 0.45681628584861755,
1032
+ "learning_rate": 5.3581191908146534e-05,
1033
+ "loss": 1.3675,
1034
+ "step": 1440
1035
+ },
1036
+ {
1037
+ "epoch": 2.2553522771506422,
1038
+ "grad_norm": 0.4665955901145935,
1039
+ "learning_rate": 5.248769819573538e-05,
1040
+ "loss": 1.3608,
1041
+ "step": 1450
1042
+ },
1043
+ {
1044
+ "epoch": 2.2709225379525106,
1045
+ "grad_norm": 0.5088324546813965,
1046
+ "learning_rate": 5.1394204483324224e-05,
1047
+ "loss": 1.3386,
1048
+ "step": 1460
1049
+ },
1050
+ {
1051
+ "epoch": 2.286492798754379,
1052
+ "grad_norm": 0.45360425114631653,
1053
+ "learning_rate": 5.0300710770913076e-05,
1054
+ "loss": 1.3568,
1055
+ "step": 1470
1056
+ },
1057
+ {
1058
+ "epoch": 2.3020630595562475,
1059
+ "grad_norm": 0.4933008551597595,
1060
+ "learning_rate": 4.9207217058501915e-05,
1061
+ "loss": 1.3041,
1062
+ "step": 1480
1063
+ },
1064
+ {
1065
+ "epoch": 2.317633320358116,
1066
+ "grad_norm": 0.45595404505729675,
1067
+ "learning_rate": 4.811372334609076e-05,
1068
+ "loss": 1.3012,
1069
+ "step": 1490
1070
+ },
1071
+ {
1072
+ "epoch": 2.3332035811599843,
1073
+ "grad_norm": 0.49661508202552795,
1074
+ "learning_rate": 4.7020229633679605e-05,
1075
+ "loss": 1.3304,
1076
+ "step": 1500
1077
+ },
1078
+ {
1079
+ "epoch": 2.3332035811599843,
1080
+ "eval_loss": 1.4234389066696167,
1081
+ "eval_runtime": 260.843,
1082
+ "eval_samples_per_second": 9.849,
1083
+ "eval_steps_per_second": 1.234,
1084
+ "step": 1500
1085
+ },
1086
+ {
1087
+ "epoch": 2.3487738419618527,
1088
+ "grad_norm": 0.4981136918067932,
1089
+ "learning_rate": 4.592673592126846e-05,
1090
+ "loss": 1.3316,
1091
+ "step": 1510
1092
+ },
1093
+ {
1094
+ "epoch": 2.364344102763721,
1095
+ "grad_norm": 0.4820728898048401,
1096
+ "learning_rate": 4.48332422088573e-05,
1097
+ "loss": 1.3227,
1098
+ "step": 1520
1099
+ },
1100
+ {
1101
+ "epoch": 2.3799143635655895,
1102
+ "grad_norm": 0.5209029912948608,
1103
+ "learning_rate": 4.373974849644615e-05,
1104
+ "loss": 1.3635,
1105
+ "step": 1530
1106
+ },
1107
+ {
1108
+ "epoch": 2.3954846243674583,
1109
+ "grad_norm": 0.493643194437027,
1110
+ "learning_rate": 4.264625478403499e-05,
1111
+ "loss": 1.3084,
1112
+ "step": 1540
1113
+ },
1114
+ {
1115
+ "epoch": 2.4110548851693268,
1116
+ "grad_norm": 0.4825109839439392,
1117
+ "learning_rate": 4.155276107162384e-05,
1118
+ "loss": 1.3758,
1119
+ "step": 1550
1120
+ },
1121
+ {
1122
+ "epoch": 2.426625145971195,
1123
+ "grad_norm": 0.5229203104972839,
1124
+ "learning_rate": 4.045926735921269e-05,
1125
+ "loss": 1.3421,
1126
+ "step": 1560
1127
+ },
1128
+ {
1129
+ "epoch": 2.4421954067730636,
1130
+ "grad_norm": 0.4592013657093048,
1131
+ "learning_rate": 3.9365773646801536e-05,
1132
+ "loss": 1.331,
1133
+ "step": 1570
1134
+ },
1135
+ {
1136
+ "epoch": 2.457765667574932,
1137
+ "grad_norm": 0.44231197237968445,
1138
+ "learning_rate": 3.827227993439038e-05,
1139
+ "loss": 1.3215,
1140
+ "step": 1580
1141
+ },
1142
+ {
1143
+ "epoch": 2.4733359283768004,
1144
+ "grad_norm": 0.5239751935005188,
1145
+ "learning_rate": 3.717878622197922e-05,
1146
+ "loss": 1.295,
1147
+ "step": 1590
1148
+ },
1149
+ {
1150
+ "epoch": 2.488906189178669,
1151
+ "grad_norm": 0.5024131536483765,
1152
+ "learning_rate": 3.608529250956807e-05,
1153
+ "loss": 1.3301,
1154
+ "step": 1600
1155
+ },
1156
+ {
1157
+ "epoch": 2.504476449980537,
1158
+ "grad_norm": 0.4963117837905884,
1159
+ "learning_rate": 3.499179879715692e-05,
1160
+ "loss": 1.3481,
1161
+ "step": 1610
1162
+ },
1163
+ {
1164
+ "epoch": 2.5200467107824056,
1165
+ "grad_norm": 0.5025255084037781,
1166
+ "learning_rate": 3.389830508474576e-05,
1167
+ "loss": 1.3549,
1168
+ "step": 1620
1169
+ },
1170
+ {
1171
+ "epoch": 2.535616971584274,
1172
+ "grad_norm": 0.527905285358429,
1173
+ "learning_rate": 3.280481137233461e-05,
1174
+ "loss": 1.3592,
1175
+ "step": 1630
1176
+ },
1177
+ {
1178
+ "epoch": 2.5511872323861424,
1179
+ "grad_norm": 0.49054473638534546,
1180
+ "learning_rate": 3.171131765992346e-05,
1181
+ "loss": 1.3023,
1182
+ "step": 1640
1183
+ },
1184
+ {
1185
+ "epoch": 2.566757493188011,
1186
+ "grad_norm": 0.5385321974754333,
1187
+ "learning_rate": 3.0617823947512305e-05,
1188
+ "loss": 1.3427,
1189
+ "step": 1650
1190
+ },
1191
+ {
1192
+ "epoch": 2.5823277539898792,
1193
+ "grad_norm": 0.49234816431999207,
1194
+ "learning_rate": 2.952433023510115e-05,
1195
+ "loss": 1.3358,
1196
+ "step": 1660
1197
+ },
1198
+ {
1199
+ "epoch": 2.5978980147917476,
1200
+ "grad_norm": 0.4959504008293152,
1201
+ "learning_rate": 2.8430836522689995e-05,
1202
+ "loss": 1.3266,
1203
+ "step": 1670
1204
+ },
1205
+ {
1206
+ "epoch": 2.613468275593616,
1207
+ "grad_norm": 0.44804513454437256,
1208
+ "learning_rate": 2.7337342810278844e-05,
1209
+ "loss": 1.3672,
1210
+ "step": 1680
1211
+ },
1212
+ {
1213
+ "epoch": 2.6290385363954845,
1214
+ "grad_norm": 0.5712561011314392,
1215
+ "learning_rate": 2.624384909786769e-05,
1216
+ "loss": 1.356,
1217
+ "step": 1690
1218
+ },
1219
+ {
1220
+ "epoch": 2.6446087971973533,
1221
+ "grad_norm": 0.4535830616950989,
1222
+ "learning_rate": 2.5150355385456538e-05,
1223
+ "loss": 1.2911,
1224
+ "step": 1700
1225
+ },
1226
+ {
1227
+ "epoch": 2.6601790579992217,
1228
+ "grad_norm": 0.46494343876838684,
1229
+ "learning_rate": 2.405686167304538e-05,
1230
+ "loss": 1.297,
1231
+ "step": 1710
1232
+ },
1233
+ {
1234
+ "epoch": 2.67574931880109,
1235
+ "grad_norm": 0.5322738885879517,
1236
+ "learning_rate": 2.296336796063423e-05,
1237
+ "loss": 1.3409,
1238
+ "step": 1720
1239
+ },
1240
+ {
1241
+ "epoch": 2.6913195796029585,
1242
+ "grad_norm": 0.5388643145561218,
1243
+ "learning_rate": 2.1869874248223074e-05,
1244
+ "loss": 1.2991,
1245
+ "step": 1730
1246
+ },
1247
+ {
1248
+ "epoch": 2.706889840404827,
1249
+ "grad_norm": 0.4668332040309906,
1250
+ "learning_rate": 2.077638053581192e-05,
1251
+ "loss": 1.3082,
1252
+ "step": 1740
1253
+ },
1254
+ {
1255
+ "epoch": 2.7224601012066953,
1256
+ "grad_norm": 0.493221640586853,
1257
+ "learning_rate": 1.9682886823400768e-05,
1258
+ "loss": 1.289,
1259
+ "step": 1750
1260
+ },
1261
+ {
1262
+ "epoch": 2.7380303620085638,
1263
+ "grad_norm": 0.49574050307273865,
1264
+ "learning_rate": 1.858939311098961e-05,
1265
+ "loss": 1.2815,
1266
+ "step": 1760
1267
+ },
1268
+ {
1269
+ "epoch": 2.753600622810432,
1270
+ "grad_norm": 0.5505498647689819,
1271
+ "learning_rate": 1.749589939857846e-05,
1272
+ "loss": 1.3711,
1273
+ "step": 1770
1274
+ },
1275
+ {
1276
+ "epoch": 2.7691708836123006,
1277
+ "grad_norm": 0.5239655375480652,
1278
+ "learning_rate": 1.6402405686167304e-05,
1279
+ "loss": 1.3717,
1280
+ "step": 1780
1281
+ },
1282
+ {
1283
+ "epoch": 2.784741144414169,
1284
+ "grad_norm": 0.50331050157547,
1285
+ "learning_rate": 1.5308911973756152e-05,
1286
+ "loss": 1.3082,
1287
+ "step": 1790
1288
+ },
1289
+ {
1290
+ "epoch": 2.8003114052160374,
1291
+ "grad_norm": 0.5316745638847351,
1292
+ "learning_rate": 1.4215418261344998e-05,
1293
+ "loss": 1.3147,
1294
+ "step": 1800
1295
+ },
1296
+ {
1297
+ "epoch": 2.815881666017906,
1298
+ "grad_norm": 0.49300023913383484,
1299
+ "learning_rate": 1.3121924548933845e-05,
1300
+ "loss": 1.3304,
1301
+ "step": 1810
1302
+ },
1303
+ {
1304
+ "epoch": 2.831451926819774,
1305
+ "grad_norm": 0.5078563690185547,
1306
+ "learning_rate": 1.202843083652269e-05,
1307
+ "loss": 1.3342,
1308
+ "step": 1820
1309
+ },
1310
+ {
1311
+ "epoch": 2.8470221876216426,
1312
+ "grad_norm": 0.4983169734477997,
1313
+ "learning_rate": 1.0934937124111537e-05,
1314
+ "loss": 1.3854,
1315
+ "step": 1830
1316
+ },
1317
+ {
1318
+ "epoch": 2.862592448423511,
1319
+ "grad_norm": 0.5032157897949219,
1320
+ "learning_rate": 9.841443411700384e-06,
1321
+ "loss": 1.3383,
1322
+ "step": 1840
1323
+ },
1324
+ {
1325
+ "epoch": 2.8781627092253794,
1326
+ "grad_norm": 0.5086650252342224,
1327
+ "learning_rate": 8.74794969928923e-06,
1328
+ "loss": 1.3179,
1329
+ "step": 1850
1330
+ },
1331
+ {
1332
+ "epoch": 2.893732970027248,
1333
+ "grad_norm": 0.4910889267921448,
1334
+ "learning_rate": 7.654455986878076e-06,
1335
+ "loss": 1.3241,
1336
+ "step": 1860
1337
+ },
1338
+ {
1339
+ "epoch": 2.9093032308291162,
1340
+ "grad_norm": 0.5080595016479492,
1341
+ "learning_rate": 6.560962274466922e-06,
1342
+ "loss": 1.3179,
1343
+ "step": 1870
1344
+ },
1345
+ {
1346
+ "epoch": 2.9248734916309846,
1347
+ "grad_norm": 0.5309430956840515,
1348
+ "learning_rate": 5.4674685620557685e-06,
1349
+ "loss": 1.3617,
1350
+ "step": 1880
1351
+ },
1352
+ {
1353
+ "epoch": 2.940443752432853,
1354
+ "grad_norm": 0.5051539540290833,
1355
+ "learning_rate": 4.373974849644615e-06,
1356
+ "loss": 1.3573,
1357
+ "step": 1890
1358
+ },
1359
+ {
1360
+ "epoch": 2.9560140132347215,
1361
+ "grad_norm": 0.4643094837665558,
1362
+ "learning_rate": 3.280481137233461e-06,
1363
+ "loss": 1.3074,
1364
+ "step": 1900
1365
+ },
1366
+ {
1367
+ "epoch": 2.97158427403659,
1368
+ "grad_norm": 0.4756477177143097,
1369
+ "learning_rate": 2.1869874248223073e-06,
1370
+ "loss": 1.3093,
1371
+ "step": 1910
1372
+ },
1373
+ {
1374
+ "epoch": 2.9871545348384583,
1375
+ "grad_norm": 0.4663808047771454,
1376
+ "learning_rate": 1.0934937124111537e-06,
1377
+ "loss": 1.3229,
1378
+ "step": 1920
1379
+ }
1380
+ ],
1381
+ "logging_steps": 10,
1382
+ "max_steps": 1929,
1383
+ "num_input_tokens_seen": 0,
1384
+ "num_train_epochs": 3,
1385
+ "save_steps": 500,
1386
+ "stateful_callbacks": {
1387
+ "TrainerControl": {
1388
+ "args": {
1389
+ "should_epoch_stop": false,
1390
+ "should_evaluate": false,
1391
+ "should_log": false,
1392
+ "should_save": true,
1393
+ "should_training_stop": true
1394
+ },
1395
+ "attributes": {}
1396
+ }
1397
+ },
1398
+ "total_flos": 1.5420831362659123e+17,
1399
+ "train_batch_size": 4,
1400
+ "trial_name": null,
1401
+ "trial_params": null
1402
+ }