L'autonomia dels futurs equips de control d'avalots ha passat de l'"assistència amb eines" a la "col·laboració en tasques", amb capacitats de percepció, judici i resposta autònomes en entorns limitats. Tanmateix, la presa de decisions bàsiques-seguirà conservant un model "humà-en--bucle" per garantir el control definitiu sobre l'ús de la força.
Impulsat per les tecnologies d'IA i robòtica, l'autonomia dels equips de control d'avalots es reflecteix principalment en els tres aspectes següents:
Percepció autònoma i modelització ambiental: els moderns sistemes intel·ligents de control d'avalots es poden equipar amb mòduls de fusió multi-sensor (com ara imatges tèrmiques, lidar i matrius de micròfons) per aconseguir l'exploració i el mapeig-en temps real d'entorns complexos. Per exemple, alguns robots de control d'avalots poden identificar de manera autònoma els obstacles, els canvis en la densitat de la multitud i els patrons de comportament anormals, i encara poden funcionar de manera estable en entorns de fum dens o de poca-il·luminació.
Presa de decisions autònomes limitades-i resposta de comportament: amb l'ajuda de la informàtica de punta i els models d'IA lleugers, l'equip pot executar de manera autònoma tasques específiques dins de regles preestablertes. Per exemple, els robots de patrulla, després de detectar accions violentes (com ara tallar o carregar) mitjançant algorismes de reconeixement del comportament, poden activar automàticament alarmes, rastrejar objectius i desplegar municions no-letals; els drons, quan detecten amenaces aèries (com ara drons de carreres), poden enlairar-se i implementar interferències electrònices de manera autònoma.
Col·laboració humana-màquina en una missió-de bucle tancat
Actualment, els equips altament autònoms generalment adopten una arquitectura "humana-en-el-bucle", on els operadors humans estableixen els objectius de la missió i els límits de seguretat, mentre que el sistema és responsable de la planificació del camí, el bloqueig de l'objectiu i l'optimització de l'execució. Per exemple, el robot "Ball Police Officer" desplegat a algunes ciutats xineses pot patrullar de manera autònoma amb la unitat d'IA, però un cop s'identifica un objectiu d'alt risc-, cal la confirmació del personal de fons- abans que es puguin prendre més mesures.
Val la pena assenyalar que, tot i que les respostes totalment autònomes "fora del bucle humà" són tècnicament possibles, les accions autònomes letals o d'alta{0}}força encara estan estrictament limitades a causa de consideracions ètiques i legals. En general, la comunitat internacional demana la preservació del "control humà significatiu" (MHC) per evitar que els errors de judici algorítmic portin a conseqüències incontrolables.




