Challenge Results

Team Name Submission Date Normalized AuC AuC Number of Clusters # of discovered objects detection AP detection AP50 CorLoc
MIG 06/14 0.145 0.14r 3800 58 0.00027 0.00092 97.14
MIG 06/09 0.142 0.143 2999 58 0.00017 0.00045 97.14
MIG 06/10 0.136 0.137 2999 58 0.00010 0.00016 97.14
Amadeus 06/15 0.116 0.116 3800 58 0.00010 0.00028 95.40
Amadeus 06/15 0.104 0.104 3500 59 0.00008 0.00026 93.66
UMD 06/15 0.097 0.097 3000 58 0.00003 0.00010 94.11
UMD 06/15 0.095 0.095 4000 60 0.00007 0.00025 94.11
UMD 06/15 0.090 0.090 2000 56 0.00006 0.00021 94.11
UMD 06/15 0.085 0.085 651 44 0.0112 0.0327 94.11
UMD 06/15 0.083 0.083 1020 48 0.0110 0.0309 94.11
UMD 06/12 0.082 0.083 900 46 0.0017 0.0048 94.11
UMD 06/12 0.082 0.083 900 46 0.0016 0.0044 94.11
UMD 06/12 0.072 0.072 207 35 0.0252 0.0683 94.11
MIG 06/08 0.070 0.070 80 21 0.00015 0.00034 94.13
Amadeus 06/14 0.067 0.067 80 20 0.00015 0.00037 93.66
MIG 06/06 0.066 0.066 80 21 0.000 0.000 94.13
UMD 06/12 0.065 0.065 131 20 0.0328 0.0859 94.11
Kamitsu 06/06 0.061 0.061 80 15 0.00018 0.00051 94.13
IVCTeam 06/09 0.060 0.060 80 19 0.00023 0.00069 93.98
IVCTeam 06/10 0.057 0.057 80 18 0.000 0.000 94.13
OpenNet 06/10 0.057 0.057 80 15 0.000 0.000 94.13
Amadeus - 0.053 0.053 80 17 0.00012 0.00035 93.98