mardi-2023-detr-resnet-50

This model is a fine-tuned version of facebook/detr-resnet-50 on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 0.9613
  • Map: 0.2878
  • Map 50: 0.5326
  • Map 75: 0.2571
  • Map Small: -1.0
  • Map Medium: 0.288
  • Map Large: -1.0
  • Mar 1: 0.2306
  • Mar 10: 0.4509
  • Mar 100: 0.49
  • Mar Small: -1.0
  • Mar Medium: 0.49
  • Mar Large: -1.0
  • Map Ok: 0.5199
  • Mar 100 Ok: 0.6827
  • Map Tilt: 0.2762
  • Mar 100 Tilt: 0.27
  • Map Flat: 0.1581
  • Mar 100 Flat: 0.5341
  • Map Missing: 0.1969
  • Mar 100 Missing: 0.4733

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 0.0001
  • train_batch_size: 16
  • eval_batch_size: 8
  • seed: 1337
  • optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • num_epochs: 100.0

Training results

Training Loss Epoch Step Validation Loss Map Map 50 Map 75 Map Small Map Medium Map Large Mar 1 Mar 10 Mar 100 Mar Small Mar Medium Mar Large Map Ok Mar 100 Ok Map Tilt Mar 100 Tilt Map Flat Mar 100 Flat Map Missing Mar 100 Missing
3.2067 1.0 23 2.1102 0.0059 0.0151 0.0034 -1.0 0.0072 -1.0 0.0028 0.031 0.1432 -1.0 0.1432 -1.0 0.0238 0.5729 0.0 0.0 0.0 0.0 0.0 0.0
2.2160 2.0 46 1.8637 0.0066 0.0194 0.0034 -1.0 0.0067 -1.0 0.0039 0.0256 0.1331 -1.0 0.1331 -1.0 0.0266 0.5323 0.0 0.0 0.0 0.0 0.0 0.0
1.8941 3.0 69 1.7979 0.0108 0.0239 0.0068 -1.0 0.0108 -1.0 0.0071 0.0263 0.1336 -1.0 0.1336 -1.0 0.0432 0.5346 0.0 0.0 0.0 0.0 0.0 0.0
1.7650 4.0 92 1.6519 0.0421 0.0865 0.0347 -1.0 0.0422 -1.0 0.0269 0.1058 0.1643 -1.0 0.1643 -1.0 0.1686 0.6571 0.0 0.0 0.0 0.0 0.0 0.0
1.6675 5.0 115 1.6726 0.0462 0.1044 0.0385 -1.0 0.0463 -1.0 0.0184 0.1118 0.1479 -1.0 0.1479 -1.0 0.1847 0.5917 0.0 0.0 0.0 0.0 0.0 0.0
1.5511 6.0 138 1.5465 0.0741 0.1627 0.0565 -1.0 0.0742 -1.0 0.0333 0.1356 0.153 -1.0 0.153 -1.0 0.2931 0.5752 0.0 0.0 0.0 0.0 0.0034 0.0367
1.5101 7.0 161 1.5479 0.0751 0.1619 0.0548 -1.0 0.0752 -1.0 0.0294 0.1437 0.1686 -1.0 0.1686 -1.0 0.2977 0.5977 0.0 0.0 0.0 0.0 0.0027 0.0767
1.5052 8.0 184 1.4793 0.0719 0.1771 0.0402 -1.0 0.0722 -1.0 0.0356 0.1408 0.1879 -1.0 0.1879 -1.0 0.2808 0.585 0.0 0.0 0.0 0.0 0.0068 0.1667
1.3950 9.0 207 1.4267 0.0784 0.1857 0.0522 -1.0 0.0789 -1.0 0.0322 0.1666 0.2052 -1.0 0.2052 -1.0 0.2959 0.594 0.0 0.0 0.0 0.0 0.0177 0.2267
1.3796 10.0 230 1.3710 0.0811 0.2044 0.0561 -1.0 0.0812 -1.0 0.0367 0.1605 0.2127 -1.0 0.2127 -1.0 0.3165 0.5774 0.0 0.0 0.0 0.0 0.0078 0.2733
1.4638 11.0 253 1.2994 0.0951 0.2186 0.0745 -1.0 0.0997 -1.0 0.0409 0.1928 0.2497 -1.0 0.2497 -1.0 0.3462 0.603 0.0 0.0 0.0146 0.0523 0.0196 0.3433
1.3492 12.0 276 1.3955 0.0844 0.2397 0.0467 -1.0 0.0868 -1.0 0.0666 0.2129 0.2888 -1.0 0.2888 -1.0 0.27 0.5594 0.0 0.0 0.0506 0.3091 0.0169 0.2867
1.3493 13.0 299 1.2898 0.1093 0.2425 0.092 -1.0 0.1102 -1.0 0.0625 0.2582 0.3119 -1.0 0.3119 -1.0 0.3728 0.5917 0.0 0.0 0.0443 0.3659 0.0201 0.29
1.3175 14.0 322 1.3222 0.115 0.2755 0.0705 -1.0 0.1156 -1.0 0.0834 0.2679 0.3161 -1.0 0.3161 -1.0 0.3569 0.5662 0.0 0.0 0.073 0.425 0.0302 0.2733
1.3737 15.0 345 1.3212 0.1202 0.2956 0.0821 -1.0 0.1207 -1.0 0.0796 0.2707 0.2916 -1.0 0.2916 -1.0 0.3761 0.5684 0.0 0.0 0.0845 0.3045 0.0201 0.2933
1.3140 16.0 368 1.2584 0.1154 0.2718 0.074 -1.0 0.1185 -1.0 0.0779 0.2627 0.3221 -1.0 0.3221 -1.0 0.3604 0.5526 0.0 0.0 0.0786 0.3159 0.0228 0.42
1.2511 17.0 391 1.2792 0.1155 0.2873 0.0829 -1.0 0.1186 -1.0 0.075 0.282 0.3178 -1.0 0.3178 -1.0 0.3882 0.5699 0.0 0.0 0.0565 0.3114 0.0172 0.39
1.3013 18.0 414 1.3191 0.1032 0.2429 0.0704 -1.0 0.1037 -1.0 0.0725 0.2398 0.3114 -1.0 0.3114 -1.0 0.3326 0.5421 0.0 0.0 0.0702 0.4 0.0098 0.3033
1.2674 19.0 437 1.3330 0.1084 0.2528 0.0807 -1.0 0.1108 -1.0 0.0592 0.2643 0.3034 -1.0 0.3034 -1.0 0.3685 0.5511 0.0 0.0 0.0406 0.4091 0.0244 0.2533
1.2790 20.0 460 1.3020 0.1166 0.2768 0.0772 -1.0 0.1167 -1.0 0.0862 0.2714 0.3115 -1.0 0.3115 -1.0 0.3506 0.5466 0.0 0.0 0.1047 0.4295 0.0111 0.27
1.2971 21.0 483 1.2424 0.123 0.2826 0.0929 -1.0 0.1234 -1.0 0.0889 0.2892 0.3555 -1.0 0.3555 -1.0 0.3896 0.585 0.0 0.0 0.0789 0.5136 0.0235 0.3233
1.2891 22.0 506 1.2653 0.1164 0.2485 0.1011 -1.0 0.1175 -1.0 0.0794 0.2723 0.3344 -1.0 0.3344 -1.0 0.395 0.5865 0.0 0.0 0.0529 0.4977 0.0179 0.2533
1.2720 23.0 529 1.3279 0.1068 0.2621 0.0837 -1.0 0.1082 -1.0 0.0756 0.2505 0.2955 -1.0 0.2955 -1.0 0.3318 0.5541 0.0 0.0 0.0826 0.4114 0.0126 0.2167
1.2512 24.0 552 1.3173 0.1118 0.2598 0.0727 -1.0 0.1132 -1.0 0.0881 0.2613 0.3132 -1.0 0.3132 -1.0 0.34 0.5331 0.0 0.0 0.088 0.4295 0.0193 0.29
1.2837 25.0 575 1.2941 0.1204 0.2653 0.0925 -1.0 0.1205 -1.0 0.0803 0.2871 0.3291 -1.0 0.3291 -1.0 0.3789 0.609 0.0 0.0 0.0945 0.4841 0.0081 0.2233
1.2583 26.0 598 1.3193 0.1115 0.2535 0.0819 -1.0 0.1134 -1.0 0.078 0.2622 0.3018 -1.0 0.3018 -1.0 0.3669 0.5556 0.0 0.0 0.0614 0.4114 0.0175 0.24
1.2535 27.0 621 1.3277 0.1041 0.2383 0.0604 -1.0 0.105 -1.0 0.056 0.2606 0.3142 -1.0 0.3142 -1.0 0.3542 0.5617 0.0 0.0 0.0483 0.4386 0.0141 0.2567
1.2474 28.0 644 1.2529 0.1238 0.2908 0.0836 -1.0 0.1243 -1.0 0.0893 0.275 0.3356 -1.0 0.3356 -1.0 0.4029 0.5902 0.0 0.0 0.0674 0.4455 0.0249 0.3067
1.2225 29.0 667 1.2200 0.1282 0.2717 0.0934 -1.0 0.1285 -1.0 0.0815 0.2923 0.3477 -1.0 0.3477 -1.0 0.4219 0.6233 0.0 0.0 0.056 0.4409 0.0347 0.3267
1.1982 30.0 690 1.2584 0.1413 0.3574 0.0711 -1.0 0.1426 -1.0 0.1046 0.3226 0.3807 -1.0 0.3807 -1.0 0.3532 0.5602 0.103 0.1 0.0785 0.4727 0.0305 0.39
1.2522 31.0 713 1.2529 0.1236 0.28 0.0909 -1.0 0.1238 -1.0 0.0847 0.2834 0.3297 -1.0 0.3297 -1.0 0.4017 0.5789 0.0 0.0 0.0735 0.4864 0.0192 0.2533
1.2127 32.0 736 1.2126 0.136 0.2917 0.1128 -1.0 0.1372 -1.0 0.0857 0.2754 0.3352 -1.0 0.3352 -1.0 0.399 0.5699 0.0 0.0 0.1265 0.4841 0.0185 0.2867
1.1930 33.0 759 1.1772 0.1434 0.3001 0.1218 -1.0 0.1437 -1.0 0.0984 0.3117 0.3644 -1.0 0.3644 -1.0 0.426 0.5865 0.0 0.0 0.1115 0.4977 0.036 0.3733
1.1823 34.0 782 1.1744 0.1468 0.3011 0.1193 -1.0 0.148 -1.0 0.1171 0.3139 0.3641 -1.0 0.3641 -1.0 0.4634 0.6248 0.0 0.0 0.0803 0.475 0.0435 0.3567
1.1367 35.0 805 1.2039 0.1787 0.3721 0.1593 -1.0 0.1811 -1.0 0.1483 0.3514 0.3959 -1.0 0.3959 -1.0 0.3693 0.5624 0.2149 0.21 0.0844 0.4545 0.0462 0.3567
1.1334 36.0 828 1.2152 0.2076 0.3966 0.1836 -1.0 0.2077 -1.0 0.1572 0.3592 0.4027 -1.0 0.4027 -1.0 0.4344 0.6 0.2405 0.3 0.1327 0.4841 0.0226 0.2267
1.1637 37.0 851 1.2574 0.1944 0.3611 0.171 -1.0 0.195 -1.0 0.1403 0.3358 0.3864 -1.0 0.3864 -1.0 0.4244 0.5962 0.2767 0.28 0.0532 0.4159 0.0232 0.2533
1.1608 38.0 874 1.2191 0.2007 0.3664 0.1827 -1.0 0.2014 -1.0 0.175 0.3602 0.4074 -1.0 0.4074 -1.0 0.3918 0.5812 0.2664 0.32 0.124 0.475 0.0206 0.2533
1.1901 39.0 897 1.2347 0.1825 0.3498 0.174 -1.0 0.1834 -1.0 0.144 0.3314 0.3913 -1.0 0.3913 -1.0 0.4094 0.6023 0.2455 0.24 0.058 0.4795 0.0168 0.2433
1.1747 40.0 920 1.1967 0.1945 0.396 0.175 -1.0 0.1952 -1.0 0.1333 0.3617 0.4091 -1.0 0.4091 -1.0 0.4061 0.6008 0.2187 0.27 0.1131 0.4091 0.0402 0.3567
1.1304 41.0 943 1.1459 0.2187 0.3882 0.2007 -1.0 0.2189 -1.0 0.1863 0.3824 0.4231 -1.0 0.4231 -1.0 0.4444 0.5925 0.2762 0.27 0.089 0.4432 0.065 0.3867
1.1042 42.0 966 1.1724 0.2055 0.3599 0.1895 -1.0 0.2082 -1.0 0.1594 0.3673 0.3994 -1.0 0.3994 -1.0 0.4367 0.6015 0.2776 0.28 0.0869 0.4727 0.0206 0.2433
1.1327 43.0 989 1.1890 0.2075 0.4231 0.1893 -1.0 0.2078 -1.0 0.1631 0.3757 0.4098 -1.0 0.4098 -1.0 0.4245 0.591 0.2257 0.25 0.1176 0.475 0.0621 0.3233
1.0834 44.0 1012 1.1526 0.2131 0.4267 0.1834 -1.0 0.2143 -1.0 0.1573 0.3777 0.4325 -1.0 0.4325 -1.0 0.426 0.6173 0.2455 0.27 0.1258 0.4727 0.0549 0.37
1.0865 45.0 1035 1.1704 0.2216 0.3817 0.2104 -1.0 0.2218 -1.0 0.1861 0.3734 0.4128 -1.0 0.4128 -1.0 0.4811 0.6414 0.2762 0.27 0.0966 0.5 0.0323 0.24
1.1406 46.0 1058 1.1425 0.2116 0.4033 0.1884 -1.0 0.2118 -1.0 0.1638 0.3876 0.4291 -1.0 0.4291 -1.0 0.4378 0.6165 0.2492 0.25 0.106 0.5 0.0535 0.35
1.1719 47.0 1081 1.1891 0.2092 0.3886 0.1872 -1.0 0.2094 -1.0 0.1734 0.3671 0.4077 -1.0 0.4077 -1.0 0.4291 0.5947 0.2762 0.27 0.1001 0.4295 0.0313 0.3367
1.1288 48.0 1104 1.1282 0.1896 0.3716 0.1718 -1.0 0.1914 -1.0 0.1568 0.4085 0.4555 -1.0 0.4555 -1.0 0.4303 0.6038 0.177 0.32 0.0964 0.4682 0.0546 0.43
1.1005 49.0 1127 1.1224 0.2107 0.4206 0.2171 -1.0 0.2112 -1.0 0.165 0.403 0.4581 -1.0 0.4581 -1.0 0.4431 0.6143 0.208 0.3 0.1278 0.5182 0.0637 0.4
1.1351 50.0 1150 1.1458 0.2018 0.3922 0.2137 -1.0 0.2019 -1.0 0.1448 0.3594 0.4136 -1.0 0.4136 -1.0 0.4601 0.6391 0.2067 0.28 0.1071 0.4386 0.0331 0.2967
1.0846 51.0 1173 1.1565 0.2151 0.4083 0.1953 -1.0 0.2159 -1.0 0.1693 0.3864 0.4333 -1.0 0.4333 -1.0 0.4364 0.6165 0.2548 0.27 0.1219 0.4932 0.0474 0.3533
1.1134 52.0 1196 1.1651 0.1977 0.3974 0.1726 -1.0 0.1978 -1.0 0.196 0.393 0.4439 -1.0 0.4439 -1.0 0.4286 0.615 0.1837 0.28 0.0971 0.4841 0.0812 0.3967
1.0620 53.0 1219 1.0687 0.2253 0.4434 0.2292 -1.0 0.2259 -1.0 0.2 0.4336 0.4792 -1.0 0.4792 -1.0 0.4663 0.6293 0.2328 0.33 0.123 0.5341 0.0793 0.4233
1.0769 54.0 1242 1.1459 0.2303 0.4047 0.2084 -1.0 0.2308 -1.0 0.1837 0.3953 0.4457 -1.0 0.4457 -1.0 0.4435 0.615 0.2833 0.29 0.1171 0.4909 0.0771 0.3867
1.1470 55.0 1265 1.1457 0.2006 0.3827 0.1684 -1.0 0.2008 -1.0 0.1828 0.3918 0.4421 -1.0 0.4421 -1.0 0.4353 0.5932 0.2072 0.27 0.1043 0.475 0.0555 0.43
1.0836 56.0 1288 1.1126 0.2044 0.4009 0.1655 -1.0 0.2049 -1.0 0.181 0.4126 0.4588 -1.0 0.4588 -1.0 0.4442 0.6203 0.1741 0.3 0.1166 0.5182 0.0825 0.3967
1.0807 57.0 1311 1.1038 0.2388 0.418 0.2181 -1.0 0.2412 -1.0 0.1978 0.4124 0.4448 -1.0 0.4448 -1.0 0.4737 0.6444 0.2786 0.3 0.1022 0.4614 0.1006 0.3733
1.0552 58.0 1334 1.1091 0.2123 0.4238 0.1686 -1.0 0.2125 -1.0 0.1859 0.4227 0.4727 -1.0 0.4727 -1.0 0.4724 0.6286 0.1648 0.36 0.0961 0.5091 0.1158 0.3933
1.0667 59.0 1357 1.1175 0.2221 0.4211 0.2246 -1.0 0.2223 -1.0 0.1818 0.4212 0.4713 -1.0 0.4713 -1.0 0.4546 0.6301 0.2297 0.33 0.1157 0.525 0.0884 0.4
1.0966 60.0 1380 1.1549 0.2104 0.3964 0.1882 -1.0 0.2106 -1.0 0.179 0.4083 0.4412 -1.0 0.4412 -1.0 0.4618 0.6271 0.2148 0.33 0.0981 0.4977 0.0671 0.31
1.0934 61.0 1403 1.1873 0.2193 0.4265 0.2182 -1.0 0.2194 -1.0 0.1763 0.3811 0.4376 -1.0 0.4376 -1.0 0.4635 0.6331 0.2361 0.3 0.1192 0.5205 0.0582 0.2967
1.1459 62.0 1426 1.2100 0.177 0.3588 0.1552 -1.0 0.1793 -1.0 0.1569 0.3519 0.4158 -1.0 0.4158 -1.0 0.4439 0.606 0.1419 0.31 0.0903 0.4773 0.0319 0.27
1.0716 63.0 1449 1.1959 0.2027 0.3723 0.187 -1.0 0.2048 -1.0 0.1704 0.3681 0.4155 -1.0 0.4155 -1.0 0.4385 0.5992 0.2491 0.27 0.09 0.4795 0.0334 0.3133
1.0979 64.0 1472 1.1233 0.2162 0.4149 0.2068 -1.0 0.218 -1.0 0.172 0.4067 0.4615 -1.0 0.4615 -1.0 0.454 0.6271 0.2443 0.33 0.0959 0.5023 0.0706 0.3867
1.0376 65.0 1495 1.0770 0.2073 0.3993 0.1866 -1.0 0.2077 -1.0 0.1851 0.3977 0.4473 -1.0 0.4473 -1.0 0.5024 0.6571 0.1115 0.24 0.129 0.4886 0.0865 0.4033
1.0333 66.0 1518 1.0727 0.2565 0.4608 0.2564 -1.0 0.2569 -1.0 0.2101 0.413 0.4679 -1.0 0.4679 -1.0 0.4911 0.6398 0.2383 0.24 0.1361 0.5318 0.1607 0.46
1.0370 67.0 1541 1.0477 0.246 0.4485 0.2261 -1.0 0.2469 -1.0 0.2005 0.4206 0.4739 -1.0 0.4739 -1.0 0.4862 0.6421 0.2 0.27 0.1566 0.55 0.1411 0.4333
1.0512 68.0 1564 1.0672 0.255 0.4763 0.2047 -1.0 0.2553 -1.0 0.1896 0.4173 0.4655 -1.0 0.4655 -1.0 0.4695 0.6256 0.2776 0.3 0.1537 0.4932 0.119 0.4433
1.0427 69.0 1587 1.0524 0.2559 0.4646 0.233 -1.0 0.256 -1.0 0.2037 0.4334 0.4732 -1.0 0.4732 -1.0 0.4847 0.6436 0.2887 0.35 0.1275 0.5091 0.1224 0.39
0.9937 70.0 1610 1.0250 0.2629 0.492 0.2625 -1.0 0.2635 -1.0 0.2082 0.4584 0.495 -1.0 0.495 -1.0 0.4788 0.6436 0.2449 0.37 0.1669 0.5432 0.1612 0.4233
0.9784 71.0 1633 1.0431 0.2602 0.4826 0.2355 -1.0 0.2609 -1.0 0.2035 0.4204 0.4552 -1.0 0.4552 -1.0 0.4816 0.6331 0.2762 0.27 0.1266 0.5045 0.1565 0.4133
0.9836 72.0 1656 1.0335 0.2354 0.4511 0.2213 -1.0 0.2359 -1.0 0.2069 0.45 0.4791 -1.0 0.4791 -1.0 0.4834 0.6346 0.1946 0.35 0.126 0.525 0.1377 0.4067
0.9966 73.0 1679 1.0413 0.2682 0.4939 0.2525 -1.0 0.2686 -1.0 0.2208 0.4535 0.4856 -1.0 0.4856 -1.0 0.4818 0.6383 0.2473 0.35 0.1714 0.5341 0.172 0.42
0.9633 74.0 1702 1.0313 0.2549 0.4899 0.2511 -1.0 0.2551 -1.0 0.1914 0.4326 0.4651 -1.0 0.4651 -1.0 0.4821 0.6444 0.2207 0.27 0.1425 0.5227 0.1741 0.4233
0.9822 75.0 1725 0.9985 0.2673 0.4751 0.2538 -1.0 0.2677 -1.0 0.2062 0.4477 0.4893 -1.0 0.4893 -1.0 0.4987 0.6481 0.264 0.3 0.154 0.5523 0.1526 0.4567
0.9472 76.0 1748 1.0185 0.2498 0.4877 0.2421 -1.0 0.2503 -1.0 0.1952 0.4469 0.4733 -1.0 0.4733 -1.0 0.5064 0.6571 0.1761 0.29 0.1464 0.5295 0.1701 0.4167
0.9538 77.0 1771 1.0481 0.2374 0.4595 0.2205 -1.0 0.2381 -1.0 0.19 0.439 0.4719 -1.0 0.4719 -1.0 0.4986 0.6534 0.1806 0.33 0.1415 0.4977 0.1291 0.4067
0.9590 78.0 1794 1.0225 0.2335 0.4441 0.2178 -1.0 0.2345 -1.0 0.2086 0.4438 0.4715 -1.0 0.4715 -1.0 0.4851 0.6556 0.1906 0.32 0.1358 0.5136 0.1225 0.3967
0.9836 79.0 1817 0.9885 0.244 0.4809 0.213 -1.0 0.2446 -1.0 0.2503 0.4679 0.5066 -1.0 0.5066 -1.0 0.4891 0.6579 0.1524 0.37 0.161 0.5318 0.1735 0.4667
0.9368 80.0 1840 0.9950 0.2566 0.4826 0.225 -1.0 0.2569 -1.0 0.2289 0.4674 0.4956 -1.0 0.4956 -1.0 0.4896 0.6571 0.2 0.36 0.1687 0.5455 0.168 0.42
0.9389 81.0 1863 0.9916 0.2506 0.4655 0.218 -1.0 0.2512 -1.0 0.2203 0.4614 0.4981 -1.0 0.4981 -1.0 0.4981 0.6647 0.2027 0.34 0.1433 0.5409 0.1585 0.4467
0.9166 82.0 1886 0.9797 0.2501 0.4745 0.2248 -1.0 0.251 -1.0 0.2092 0.4561 0.4963 -1.0 0.4963 -1.0 0.4982 0.6662 0.2006 0.3 0.1486 0.5523 0.1529 0.4667
0.9327 83.0 1909 0.9912 0.2539 0.4598 0.232 -1.0 0.2541 -1.0 0.2331 0.4579 0.5023 -1.0 0.5023 -1.0 0.5096 0.6662 0.204 0.35 0.1481 0.5795 0.1539 0.4133
0.9374 84.0 1932 0.9798 0.2667 0.4742 0.2333 -1.0 0.2671 -1.0 0.2277 0.4417 0.4799 -1.0 0.4799 -1.0 0.5054 0.6609 0.2587 0.27 0.141 0.5455 0.1615 0.4433
0.9325 85.0 1955 0.9712 0.2764 0.4956 0.2562 -1.0 0.2769 -1.0 0.2301 0.4502 0.4924 -1.0 0.4924 -1.0 0.5053 0.6707 0.2602 0.27 0.165 0.5591 0.175 0.47
0.9266 86.0 1978 0.9945 0.249 0.4699 0.2233 -1.0 0.2496 -1.0 0.2148 0.4455 0.487 -1.0 0.487 -1.0 0.5044 0.6632 0.1595 0.27 0.1667 0.5682 0.1654 0.4467
0.9023 87.0 2001 0.9774 0.2653 0.4892 0.2282 -1.0 0.2654 -1.0 0.2243 0.4563 0.5017 -1.0 0.5017 -1.0 0.5091 0.6684 0.2033 0.29 0.1555 0.5818 0.1933 0.4667
0.9034 88.0 2024 0.9557 0.2845 0.5134 0.2538 -1.0 0.2846 -1.0 0.2293 0.4564 0.5066 -1.0 0.5066 -1.0 0.5068 0.6767 0.2593 0.28 0.1551 0.5932 0.2167 0.4767
0.9460 89.0 2047 0.9572 0.2754 0.501 0.2386 -1.0 0.2755 -1.0 0.2252 0.4665 0.5034 -1.0 0.5034 -1.0 0.5205 0.6812 0.2105 0.3 0.168 0.5523 0.2028 0.48
0.9146 90.0 2070 0.9604 0.2605 0.493 0.2248 -1.0 0.2607 -1.0 0.2225 0.452 0.4915 -1.0 0.4915 -1.0 0.4994 0.6662 0.1973 0.27 0.164 0.55 0.1813 0.48
0.9100 91.0 2093 0.9550 0.2645 0.4917 0.2275 -1.0 0.2647 -1.0 0.2241 0.4564 0.4947 -1.0 0.4947 -1.0 0.519 0.6865 0.1973 0.27 0.1595 0.5591 0.1821 0.4633
0.9249 92.0 2116 0.9650 0.2825 0.5054 0.2478 -1.0 0.2827 -1.0 0.2296 0.4582 0.4951 -1.0 0.4951 -1.0 0.5159 0.6827 0.2762 0.27 0.1594 0.5545 0.1785 0.4733
0.8998 93.0 2139 0.9494 0.2859 0.5229 0.2511 -1.0 0.2862 -1.0 0.2284 0.4657 0.4965 -1.0 0.4965 -1.0 0.5185 0.6699 0.2762 0.27 0.1611 0.5727 0.1879 0.4733
0.8959 94.0 2162 0.9537 0.2897 0.5242 0.2558 -1.0 0.2898 -1.0 0.2253 0.4669 0.4977 -1.0 0.4977 -1.0 0.5191 0.6737 0.2762 0.27 0.1662 0.5705 0.1972 0.4767
0.9157 95.0 2185 0.9635 0.2887 0.5312 0.2596 -1.0 0.2888 -1.0 0.2188 0.4528 0.4888 -1.0 0.4888 -1.0 0.5233 0.6797 0.2762 0.27 0.1506 0.5386 0.2047 0.4667
0.9160 96.0 2208 0.9529 0.2921 0.5365 0.2681 -1.0 0.2922 -1.0 0.2327 0.4568 0.4917 -1.0 0.4917 -1.0 0.5232 0.6767 0.2762 0.27 0.1694 0.5636 0.1996 0.4567
0.9225 97.0 2231 0.9612 0.286 0.5284 0.2595 -1.0 0.2862 -1.0 0.2226 0.4579 0.4903 -1.0 0.4903 -1.0 0.5234 0.6812 0.2762 0.27 0.1565 0.5432 0.1879 0.4667
0.8937 98.0 2254 0.9613 0.2885 0.5385 0.2588 -1.0 0.2887 -1.0 0.2265 0.4531 0.4895 -1.0 0.4895 -1.0 0.5236 0.6827 0.2762 0.27 0.1571 0.5386 0.1971 0.4667
0.9243 99.0 2277 0.9602 0.2877 0.5327 0.2587 -1.0 0.2879 -1.0 0.2279 0.4526 0.4907 -1.0 0.4907 -1.0 0.5202 0.682 0.2778 0.28 0.1561 0.5341 0.1968 0.4667
0.8782 100.0 2300 0.9613 0.2878 0.5326 0.2571 -1.0 0.288 -1.0 0.2306 0.4509 0.49 -1.0 0.49 -1.0 0.5199 0.6827 0.2762 0.27 0.1581 0.5341 0.1969 0.4733

Framework versions

  • Transformers 5.1.0
  • Pytorch 2.10.0+cu128
  • Datasets 4.5.0
  • Tokenizers 0.22.2
Downloads last month
5
Safetensors
Model size
41.6M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for WauLabs/mardi-2023-detr-resnet-50

Finetuned
(738)
this model