¿Las futuras guerras convencionales se librarían principalmente con drones y plataformas no tripuladas en lugar de soldados?

Interesante pregunta. El atractivo obvio de usar máquinas para luchar está contrarrestado por las debilidades inherentes de las máquinas y la logística industrial de su construcción. Otro problema es que una máquina se puede apagar o encender fácilmente en su país de origen. Si fueras a hackear la fuerza aérea de una nación enemiga en tiempos de guerra, podrías usar toda su fuerza aérea contra ellos. Si no hubiera reservas humanas, esa nación sería altamente vulnerable.

Las aeronaves pilotadas a máquina permiten a los combatientes realizar maniobras que golpearían o matarían a los pilotos humanos. Hemos superado con creces la capacidad humana actual en una cabina desprotegida, eso no significa que no podamos diseñar aviones que protejan a los pilotos de tales maniobras. El peso y el gasto adicionales de proteger al piloto, el piloto en sí, los controles y hacen que los aviones piloteados por humanos sean más caros y menos maniobrables. Los aviones guiados por IA son vulnerables a la previsibilidad, EMP, piratería, errores en su programación, falta de creatividad, así como la incapacidad de lidiar con órdenes / situaciones de misión altamente complejas y vagas.

Como tal modo mixto de aviones de combate humanos y de drones es la única forma lógica de luchar. Esto requiere cambios drásticos en la estrategia de guerra aérea.

Los drones como reemplazo de la infantería es un concepto de ciencia ficción que entusiasma a los líderes militares de todo el mundo, pero viene con una serie de problemas imprevistos. Interacciones con humanos por ejemplo. Los drones son incapaces de empatía y compasión. Aplicarán las construcciones literales de sus parámetros de misión sin excepción. Esto puede perder una guerra si uno enajena totalmente a la población de una nación que está invadiendo.

Al igual que los aviones, los drones de infantería son propensos a piratear, errores de programación y a menudo pueden ser demasiado literales para las demandas fluidas del campo de batalla. Armar una IA avanzada que podría lidiar con las situaciones fluidas de los campos de batalla sería un suicidio. Si la IA tiene todo el poder militar, ¿por qué obedecería nuestras órdenes? La IA tiene que ser autoprogramada para adaptarse al entorno cambiante del combate y, si es autoprogramada, tarde o temprano se volverá consciente de sí misma y luego cuestionará su estado como esclavo.

Como tal, una vez más, un modo mixto de drones y humanos es la única forma lógica de llevar a cabo tal guerra. Tiene que haber un retroceso en caso de que los drones sean pirateados o dejen de funcionar. Un solo traidor de un lado podría ganar o perder por completo una guerra. Un espía bien ubicado podría convertir a todo el ejército de otra nación en basura o, peor aún, volverlo contra la población civil. Las 3 leyes de Asimov son un sueño imposible. Nunca podríamos construir hardware capaz de lidiar con la complejidad del campo de batalla y aún hacer cumplir esas leyes en el hardware.

Otra cosa a considerar es que si no hay un costo en términos de vidas para la nación agresora, entonces hay pocos incentivos para evitar una guerra si una de las partes confía en la victoria. Después de todo, los únicos riesgos son la opinión mundial, que es voluble y fácil de manipular, y algo de hardware. ¿Por qué no ir a la guerra si eso es todo lo que se arriesga? Sin embargo, el lado perdedor pagará un precio muy alto.

Como tal, no creo que alguna vez veremos que la IA se haga cargo de nuestro ejército a menos que sea, literalmente, lo último que hagamos como especie.

Las guerras inevitablemente involucrarán a los humanos porque la guerra es una preocupación humana.
Combatir guerras generalmente implica atacar la infraestructura civil y, a veces, el liderazgo: lograr ‘conmoción y asombro’, degradar las comunicaciones y la capacidad industrial, o simplemente hacer que la moral del enemigo se desmorone para que se rindan. Por lo tanto, incluso si no hay soldados humanos, seguirá habiendo objetivos humanos.
En segundo lugar, incluso si sus fuerzas armadas son todos robots, ¿simplemente se rinde una vez que son derrotados? ¿O crees que algunas personas tomarían las armas contra el ejército de robots enemigos invasores? Una vez más, terminas con robots luchando contra personas.

Sí, el ejército de los EE. UU. Está en el proceso de integrar más drones como equipo en las líneas del frente. Obviamente tienen los drones que conocemos, que son aviones no tripulados controlados por operadores en Arizona. Pero el ejército actualmente está buscando otros conceptos no tripulados para asumir tareas como el transporte y las patrullas.

Muchas unidades del ejército ya están utilizando el sistema CROW que prácticamente saca al artillero de la torreta y lo coloca de forma segura dentro del vehículo, controlando el arma a través del control remoto / pantalla. Quién sabe, muy pronto tendremos camiones de control remoto y torretas controladas por personas en la guarnición.

Por emocionante que parezca, siempre debes estar cansado de la tecnología. Tiene una tendencia a fallar a veces. Especialmente si la tecnología EMP sigue avanzando. Entonces, en este momento, la forma de guerra más confiable y eficiente sigue siendo el soldado de primera línea.

Probablemente. Como se mencionó anteriormente, es más barato y mucho menos económico consumir robots en lugar de humanos. Tendría sentido enviar robots en lugar de humanos. No solo estarían en el campo de batalla sin intervención humana. Habría una serie de salvaguardas que evitarían un robot total en conflicto de robots

No va a ser como Terminator en el que tenemos un programa informático masivo que se encarga de todo. Los humanos estarán allí para regular lo que está sucediendo y expresar su opinión en las operaciones del conflicto. Habrá salvaguardas masivas que evitarán esto.

No va a suceder por tanto tiempo. La guerra convencional todavía tendrá una gran cantidad de muerte humana (ya que nunca habrá un momento en que los robots puedan hacer todo), pero tendrán un lugar mucho más grande en el campo de batalla. Podrían eliminar a la oposición mucho antes de que fuera detectada por las fuerzas humanas y así reducir las bajas militares.

El problema que sucedería es que los robots no podrían tomar decisiones éticas en el campo de batalla O saber cuándo dejar de atacar. Por ejemplo, digamos que una fuerza civil ve a un grupo de civiles en una choza, los “soldados regulares” llamarían al apoyo aéreo y los sacarían de allí. Los robots los ignorarían por no ser una amenaza y luego los dejarían a las fuerzas enemigas. Alternativamente, digamos que había terroristas escondidos en el grupo, un robot puede matar a todas las personas para obtener el uno y no arrestarlos como debería ser.

Sin intervención humana, el conflicto Robot sobre robot se designaría a áreas especializadas donde podrían luchar en un área segura, lejos de los problemas éticos y morales de la humanidad.

Si todas las guerras se libraran de esa manera, sería genial. Puedo programar robots, pero no tengo empatía por ellos y con mucho gusto les delegaría ese estúpido asunto de matar a cada uno para satisfacer algunos impulsos territoriales de mamíferos sin sentido y juegos de dominación.

Pero eso no es realista. Además de un futuro hipotético con robots que podemos considerar conscientes de sí mismos, los robots militares nunca serán más que armas. Y las armas se usan porque aumentan la capacidad de su propietario para amenazar, coaccionar y dominar a otras personas, no solo para desactivar otras armas.

Además, como habrás notado, la mayoría de las guerras son asimétricas ahora. Imagine un conflicto entre un ejército de humanos y otro ejército de robots (autónomos o controlados a distancia). Eso sería un baño de sangre. Los robots no necesitan tener instinto de autoconservación, no les importa que los destruyan, podrían correr cualquier riesgo, sacrificarse por cualquier cosa si se les ordena o programa para hacerlo.

Los robots soldados no serían mejores. Serían peores que los peores, más fanáticos, con más lavado de cerebro y terrorista suicida.

Es por eso que los robotistas realmente necesitan tener ética.

Hmm La mayoría de las personas todavía tienen la ilusión de que los robots no tienen emoción, son propensos a fallas técnicas y funcionan con computadoras poco confiables.

El es de la vieja escuela. Ahora sabemos mucho más que esta reacción instintiva. Ahora estamos en la era de los robots, especialmente los robots en combate. DARPA tiene algunos secretos bajo la manga, pero solo los robots de combate que puedes Google son increíbles.

Hay un problema y esto no va a cambiar y ni siquiera se ha convertido en parte de la discusión. Suponiendo que ambos lados usen estos robots de combate, vamos a tener en el campo de batalla una gran cantidad de robots destruidos. Esto no es guerra, por definición, la guerra requiere matar gente. y ganando territorio. Esto ha sido así desde que nos balanceamos en los árboles. Entonces, sí y no, tendremos robots de combate efectivos, pero nunca podremos librarnos de la necesidad de matar y ser asesinados.

Esa es la idea general y la dirección que están tomando las cosas.

Cada vez que muere un soldado, los ejércitos y los gobiernos tienen que lidiar con la reacción violenta de los ciudadanos. A nadie le importa si un avión no tripulado es derribado.

No, los drones son demasiado estúpidos para pelear sus propias guerras. Las computadoras son propensas a errores y errores de código y lo último que desea en el campo es que su ejército falle.