Segmentación de seres vivos camuflados en imágenes con entornos restringidosutilizando herramientas de inteligencia artificial
Resumen
El proyecto busca explorar la inteligencia artificial (IA) desde múltiples perspectivas, enfocándose principalmente en su impacto económico y ambiental, así como en la complejidad de desarrollar modelos avanzados basados en estas tecnologías. En particular, el estudio se centra en la creación de algoritmos capaces de segmentar animales camuflados en entornos complejos, lo que ejemplifica los desafíos técnicos asociados con la construcción de sistemas de IA sofisticados.
El proyecto investiga las implicaciones económicas y ambientales del desarrollo de IA, destacando el considerable consumo de energía y los altos costos vinculados al entrenamiento de modelos a gran escala. Estos modelos demandan una gran capacidad computacional, lo que aumenta su huella de carbono y contribuye a la presión sobre recursos naturales. A través de un análisis detallado, el proyecto busca no solo mejorar las capacidades técnicas de la IA en tareas complejas, sino también aumentar la conciencia sobre su impacto en la sostenibilidad y el medio ambiente.
Además, se profundiza en la complejidad técnica del desarrollo de modelos de IA, utilizando la segmentación de imágenes como caso de estudio. Para ello, se desarrollaron y entrenaron diversos modelos CNN para detectar y segmentar animales camuflados en ambientes complejos. El proceso incluyó un meticuloso preprocesamiento de datos y el uso de arquitecturas como ResNet50 y U-Net, enfrentando retos como el overfitting y el alto costo computacional. Los resultados subrayan la sofisticación requerida para construir modelos de IA efectivos y la necesidad de prácticas de desarrollo más sostenibles y transparentes. Este enfoque holístico asegura que el proyecto sea científicamente relevante y contribuya al debate sobre el impacto socioambiental de la IA. Tú dijiste:
escribe un resumen de 300 palabras del siguiente articulo (el cual es un resumen mas largo de un proyecto), debes expresar que el proyecto busca realizar un estudio sobre la inteligencia artificial, en el cual se investiga acerca de su impacto económico, ambiental y la complejidad de desarrollar modelos basados en estas tecnologías. Para ejemplificar la complejidad de desarrollar este tipo de modelos se desarrollan algoritmos que pretender segmentar animales camuflados en ambientes rurales. Escribe 300 palabras basandote en esta información: La Inteligencia Artificial (IA) se ha convertido rápidamente en una fuerza transformadora en la tecnología, que pretende imitar e incluso superar las capacidades lógicas y de raciocinio humanas mediante modelso computacionales complejos capaces de analizar e interpretar datos complejos. Entere los sectores de IA que más se han desarrollado en los últimos años destaca la Visión Artificial o Visión por Computadora, que pretende enseñar a las máquinas a interpretar información visual. Este campo ha avanzado significativamente con las Redes Neuronales Convolucionales (CNNs), que destacan en tareas como la clasificación y segmentación de imágenes. Sin embargo, persisten desafíos, particularmente en la detección de objetos camuflados que se mezclan con su entorno, lo que requiere algoritmos sofisticados con una profunda comprensión contextual.
Este proyecto tiene como objetivo abordar estos desafíos desarrollando y analizando modelos basados en CNN, particularmente variaciones de la arquitectura U-Net, para mejorar la segmentación de imágenes en entornos camuflados.
El proyecto tiene dos objetivos principales: primero, evaluar los impactos económicos y ambientales del desarrollo de IA, incluyendo el significativo consumo de energía y los costes asociados con el entrenamiento de modelos a gran escala, y segundo, explorar las complejidades técnicas en el desarrollo de modelos de IA para tareas complejas como la segmentación. Al abordar estos objetivos, el proyecto no solo avanza en las capacidades técnicas de la IA, sino que también contribuye a una comprensión más profunda de su huella ambiental e implicaciones económicas. Este enfoque dual asegura que los resultados del proyecto sean tanto científicamente valiosos como relevantes para el discurso sobre la sostenibilidad y el impacto social de la IA.
\newline
\par
El impacto ambiental de la Inteligencia Artificial (IA) y las Tecnologías de la Información y Comunicación (TIC) está adquiriendo una relevancia creciente a medida que estas tecnologías se expanden. La IA, particularmente a través del 'deep learning' o aprendizaje profundo y los 'Large Language Models' (LLMs) o modelos grandes de lenguaje, es un componente clave del sector TIC y demanda una considerable capacidad de computación. Esto lleva a un alto consumo de energía y un aumento en las emisiones de carbono. Este creciente requisito de energía también ejerce presión sobre los recursos naturales, como el agua, que es esencial para la refrigeración de los centros de datos.
El impacto ambiental de las TIC se puede analizar en tres niveles. Los efectos directos incluyen el consumo de energía y los desechos asociados con la producción, el uso y la eliminación de hardware TIC como computadoras y teléfonos móviles. Aunque las TIC tienen el potencial de optimizar procesos y reducir algunos impactos ambientales, también contribuyen mediante efectos negativos como los desechos electrónicos y el aumento de la demanda energética de los centros de datos. Además, las TIC influyen en cambios sociales más amplios, que pueden beneficiar o perjudicar al medio ambiente. Beneficios como la reducción de la necesidad de transporte a través del teletrabajo, y desventajas como los efectos rebote que anulan las ganancias en eficiencia.
Los estudios actuales predicen un aumento significativo en las emisiones de gases de efecto invernadero (GEI) provenientes de las TIC, con expectativas de un incremento del 50\% en las emisiones para 2030. Sin embargo, estas previsiones a menudo pasan por alto sectores emergentes como la IA, el Internet de las Cosas (IoT) y las tecnologías blockchain, que se espera que contribuyan significativamente a las futuras emisiones.
El impacto ambiental de la IA sigue sin explorarse en profundidad. La dependencia de la IA en enormes cantidades de datos y en la capacidad de computación ha llevado a un aumento exponencial en el consumo de energía, con un aumento de 300,000 veces en la capacidad utilizada para entrenar modelos de IA desde 2012 hasta 2018. A pesar de estas crecientes preocupaciones, los informes ambientales en la investigación de IA aún son escasos, y muchos estudios no miden de manera exhaustiva las emisiones de carbono u otros impactos ambientales.
Para abordar estos desafíos, se están proponiendo metodologías basadas en la Evaluación del Ciclo de Vida para evaluar el impacto ambiental de la IA desde la adquisición de datos hasta su uso por los consumidores últimos de la misma. Sin embargo, hay una falta de transparencia y datos respecto a los impactos ambientales del hardware de IA, particularmente GPUs y TPUs. Existe una creciente demanda de mayor transparencia por parte de las empresas para permitir mejores evaluaciones ambientales y prácticas de IA más sostenibles.
Se han propuesto varios métodos para estimar el consumo de energía y la huella de carbono de la IA, como el uso de FLOPs para medir las demandas computacionales o el empleo de la métrica 'Power Usage Effectiveness' (PUE) para evaluar la eficiencia de los centros de datos. Estos enfoques ayudan a cuantificar el impacto ambiental y guiar el desarrollo de tecnologías de IA más ecológicas.
El estudio de modelos de lenguaje a gran escala, como BLOOM, resalta aún más el considerable impacto ambiental asociado con el entrenamiento y la implementación de dichos modelos. El entrenamiento de BLOOM requirió más de un millón de horas de GPU y resultó en emisiones significativas de carbono, subrayando la necesidad urgente de prácticas de desarrollo de IA más sostenibles.
\newline
\par
La Inteligencia Artificial (IA) es una tecnología capaz de impulsar la mejora de la productividad y el crecimiento económico en diversos sectores. Al automatizar tareas rutinarias, mejorar la toma de decisiones y fomentar la innovación, la IA aumenta significativamente la eficiencia y la rentabilidad en las organizaciones. La adopción exitosa de la IA depende de su integración estratégica en los procesos de negocio y la gestión efectiva de la innovación, lo que puede llevar a importantes ganancias en productividad. Sin embargo, lograr estos beneficios implica superar desafíos como la formación de los trabajadores, la privacidad de los datos y consideraciones éticas.
El impacto de la IA en la productividad es evidente en múltiples industrias. En la industria manufacturera, el mantenimiento predictivo impulsado por IA minimiza los tiempos de inactividad del equipo y los costes de mantenimiento, mientras que los sistemas de control de calidad aseguran estándares de producto más altos. La IA también mejora la gestión de la cadena de suministro al optimizar el inventario y la previsión de la demanda, lo que reduce los costes generales y mejora la eficiencia operativa. En el sector financiero, la IA revoluciona la toma de decisiones y la gestión de riesgos, ejemplificado por instituciones como Mastercard utilizando IA para la detección de fraude y BlackRock empleando IA para la optimización de carteras. Estos avances aceleran las transacciones, reducen errores y aumentan significativamente la productividad. La atención médica también ha beneficiado de la IA, con herramientas como IBM Watson Health mejorando los diagnósticos y la planificación del tratamiento, y colaboraciones de IA como la de Pfizer con Insilico Medicine acelerando los procesos de descubrimiento de fármacos.
A pesar de las extensas ganancias en productividad a través de diversos sectores, los beneficios económicos de la IA no se distribuyen uniformemente, lo que genera preocupaciones sobre el aumento de la desigualdad económica. Las disparidades entre quienes tienen acceso a las tecnologías de IA y quienes no lo tienen podrían obstaculizar el desarrollo económico. Para abordar estos desafíos, es crucial implementar estrategias que promuevan un acceso equitativo a la IA, como programas de educación y capacitación para ayudar a los trabajadores a adaptarse a las nuevas tecnologías. Los políticos y los líderes de la industria también deben centrarse en crear entornos que fomenten la innovación en IA mientras abordan desafíos éticos, legales y sociales.
Para capitalizar completamente los beneficios económicos de la IA, las organizaciones deben basarse en las mejores prácticas de diversas industrias, incluyendo la integración efectiva, la formación de la fuerza laboral, medidas de seguridad de datos y cumplimiento normativo. Al abordar estos aspectos, las organizaciones pueden asegurar que las tecnologías de IA contribuyan a un crecimiento económico sostenible y a una mayor competitividad en un mundo cada vez más tecnológico.
\newline
\par
El impacto de la IA en el mercado laboral es profundo, influyendo en el desplazamiento de empleos y las desigualdades económicas. Este proyecto, usando información de la investigación llevada a cabo por Michael Webb, explora cómo la IA, particularmente los algoritmos de aprendizaje automático, está remodelando el mercado laboral al automatizar tareas en diversas ocupaciones. La metodología de Webb evalúa la "exposición" de diferentes trabajos a la automatización impulsada por la IA, proporcionando información sobre qué roles son más vulnerables y estimando el impacto de la IA en la desigualdad salarial. Los hallazgos de Webb indican que las ocupaciones altamente cualificadas están particularmente expuestas a la IA, sugiriendo que los efectos de la IA difieren significativamente de tecnologías anteriores como el software y los robots. Los trabajos de alta remuneración y que requieren mucha educación pueden experimentar un mayor desplazamiento a medida que la IA automatiza tareas tradicionalmente realizadas por profesionales altamente cualificados. Esto podría llevar a una mayor desigualdad salarial en la parte superior de la distribución de ingresos, incluso cuando reduce la desigualdad en las ocupaciones de nivel medio.
El estudio también destaca cómo la IA podría reducir o aumentar la demanda laboral general dependiendo del contexto, ya que la automatización impulsada por la IA y los efectos causados por el aumento de la productividad conducen a resultados complejos. Históricamente, tecnologías como los robots y el software han perturbado principalmente trabajos manuales de baja remuneración y roles técnicos de remuneración media, con un impacto mínimo en trabajos de alta complejidad y bien remunerados. Sin embargo, se espera que la IA impacte de manera más significativa los trabajos de alta remuneración, lo que podría llevar a mayores disparidades en los niveles de ingresos. Esto subraya la necesidad de que los políticos y las empresas anticipen y gestionen los cambios en el mercado laboral impulsados por la IA, enfocándose en estrategias que mitiguen los riesgos de aumento de la desigualdad salarial mientras fomentan la creación de empleo y la estabilidad económica.
\newline
\par
El desarrollo de modelos de IA capaces de segmentar animales camuflados en entornos restringidos ilustra la complejidad involucrada en la creación de sistemas avanzados de IA. Este proyecto, centrado en el desarrollo de un algoritmo basado en las Redes Neuronales Convolucionales (CNN), ejemplifica y explora cada una de las etapas necesarias para desarrollar un modelo de IA complejo: el preprocesamiento de datos, la selección y creación de modelos, y el entrenamiento extensivo. Cada uno de estos pasos subraya los desafíos y la sofisticación necesarios para construir modelos de IA que puedan realizar eficazmente tareas complejas como la segmentación de imágenes.
\newline
\par
El primer paso en el desarrollo del modelo de IA involucró un meticuloso preprocesamiento de datos, esencial para el entrenamiento de CNNs. Los datos consistieron en imágenes, que hubo que formatear en arrays multidimensionales de la biblioteca numpy, donde cada imagen se emparejó con una máscara correspondiente que delimitaba la salida deseada (es decir, la silueta del animal). Las imágenes fueron redimensionadas en arrays de 256x256x3, que representan los canales RGB, mientras que las máscaras se redimensionaron a arrays de 256x256x1, que representan imágenes binarias donde el animal estaba resaltado contra un fondo negro. Este paso de preprocesamiento fue crucial para asegurar que las imágenes y las máscaras pudieran ser introducidas con precisión en las redes neuronales durante el entrenamiento.
Se emplearon dos conjuntos de datos principales:
\begin{itemize}
\item Conjunto de Datos Camuflados ($D_{CAM}$): Proporcionado por CS Group, este conjunto incluía varios tipos de imágenes, pero solo se utilizaron las camufladas (3,758 imágenes) después de filtrar las imágenes corruptas y no camufladas.
\item Conjunto de Datos No Camuflados ($D_{NONCAM}$): Se utilizó el conjunto de datos Oxford-IIIT Pet como un punto de partida más simple para desarrollar el modelo, compuesto por 7,383 imágenes de perros y gatos con sus máscaras correspondientes. Este conjunto permitió el desarrollo de algoritmos robustos antes de abordar la tarea más compleja de segmentar animales camuflados.
\end{itemize}
Además, se creó un Conjunto de Datos Mixto ($D_{BOTH}$) combinando imágenes de ambos conjuntos y creando de forma artificial nuevas imágenes camufladas basadas en las de $D_{CAM}$, incorporando un total de 1,201 imágenes para mejorar la robustez del modelo.
\newline
\par
El proyecto utilizó tres arquitecturas de CNN: ResNet50, U-Net y sus variaciones (Attention U-Net y R2 Attention U-Net), cada una seleccionada por razones específicas y proporcionando distintos niveles de rendimiento y complejidad.
\begin{itemize}
\item ResNet50:
ResNet50 es una CNN profunda con aproximadamente 23.6 millones de parámetros, conocida por su capacidad para abordar el 'Vanishing Gradients Problem' mediante la introducción de bloques residuales y conexiones de salto. Estas características permiten que los gradientes fluyan de manera más efectiva durante el entrenamiento, lo que la hace adecuada para redes profundas. En este proyecto, ResNet50 se ajustó para clasificar imágenes camufladas en cinco clases: Anfibio, Acuático, Volador, Terrestre y Otro. Solo las capas finales del modelo preentrenado se entrenaron en el conjunto de datos camuflado, preservando sus capacidades de detección de características preexistentes.
\item U-Net:
U-Net es una arquitectura de CNN diseñada originalmente para la segmentación de imágenes biomédicas. Presenta una estructura en forma de U con un camino de contracción que captura información contextual y un camino expansivo que permite una localización precisa. Este modelo se eligió debido a su capacidad para realizar segmentaciones precisas con conjuntos de datos relativamente pequeños, lo que lo hace ideal para las imágenes de animales camuflados. Tiene 7.8 millones de parámetros y se entrenó para producir una imagen binaria donde el animal estaba segmentado (o resaltado con respecto al fondo).
\item Attention U-Net:
Una variante de U-Net, Attention U-Net incorpora puertas de atención para centrarse en regiones relevantes de la imagen, mejorando la generalización del modelo al reducir las activaciones en zonas irrelevantes. Las puertas de atención ayudan al modelo a concentrarse en las zonas de la imagen donde es más probable que esté el animal camuflado, mejorando así el rendimiento de la segmentación. El modelo integrado tiene 9.3 millones de parámetros.
\item R2 Attention U-Net:
Este modelo combina las ventajas de Attention U-Net con las de R2U-Net, que integra bloques de Convolución Recurrente Residual. Estos bloques permiten que el modelo maneje las dependencias espaciales y temporales de manera más efectiva. El modelo R2 Attention U-Net se implementó específicamente para mejorar aún más la segmentación de imágenes camufladas aprovechando tanto los mecanismos de atención como las características residuales recurrentes.
\end{itemize}
La complejidad de desarrollar estos modelos radica no solo en la arquitectura y el entrenamiento, sino también en las etapas de procesamiento de datos y la selección de modelos. Cada modelo requiere recursos computacionales extensivos y una supervisión cuidadosa para evitar problemas como el 'overfitting' o el 'Vanishing Gradients Problem'.
\newline
\par
Los modelos se entrenaron en un ordenador de alto rendimiento proporcionado por CentraleSupélec, equipado con cuatro GPUs NVIDIA A100, un CPU AMD 7742 y otros componentes avanzados, con un coste total que varía entre 55,000 € y 80,000 €. Funcionando al 30\% de su capacidad debido a un uso compartido, el sistema consumió aproximadamente 8.25 kWh durante casi 50 horas, resultando en una huella de carbono de 462.2 gramos de CO₂ y un coste de electricidad de menos de 0.4 €. Estos costes e impactos ambientales mínimos son despreciables con respecto a los recursos necesarios para entrenar modelos a gran escala como GPT-4, que requieren una energía, emisiones e inversión financiera mucho mayores.
\begin{figure}[H]
\begin{center}
\includegraphics[width = 0.7\textwidth]{PHOTO/Imagenes/Confusion Matrix Validation.jpg}
\caption*{Matriz de Confusión - Conjunto de Validación}
\end{center}
\end{figure}
En cuanto a los resultados del algoritmo de clasificación, debido a la complejidad del conjunto de datos dada la presencia de animales camuflados y la variedad de especies, el modelo de clasificación fue entrenado durante 10 épocas pero se detuvo en la 6ª época debido al uso de un 'early stopping', ya que el modelo no mejoraba pasado este punto. La matriz de confusión de los datos de entrenamiento mostró que las imágenes de las clases "Amphibian" y "Flying" fueron frecuentemente mal clasificadas como "Terrestrial", reflejando similitudes ambientales. Además, el 81\% de las imágenes de la clase "Other" fueron mal clasificadas como "Terrestrial", probablemente debido a una categorización incorrecta por parte del creador del conjunto de datos. Los resultados del conjunto de validación otorgaron peores resultados: solo el 36\% de las imágenes de "Amphibian" fueron clasificadas correctamente, con un 42\% etiquetadas incorrectamente como "Terrestrial", y todas las imágenes en la categoría "Other" fueron mal clasificadas. El modelo alcanzó una precisión de validación del 66\%, que podría mejorarse potencialmente eliminando o redistribuyendo mejor las imágenes de la clase "Other".
\begin{table}[H]
\centering
\resizebox{\textwidth}{!}{%
\begin{tabular}{|l|l|l|l|l|l|}
\hline
\textbf{Modelo} & \textbf{Número de parámetros} & \textbf{Conjunto de datos} & \textbf{Tiempo de Entrenamiento (h:min:s)} & \textbf{Número de épocas} \\ \hline
\multirow{UNET} & \multirow{7,771,873} & D\_NONCAM & 06:57:34 & 12 \\ \cline{3-5}
& & D\_BOTH & 01:04:44 & 12 \\ \hline
\multirow{Attention} & \multirow{9,344,841} & D\_NONCAM & 17:15:33 & 20 \\ \cline{3-5}
& & D\_BOTH & 02:41:39 & 20 \\ \hline
\multirow{Residual} & \multirow{9,787,497} & D\_NONCAM & 18:50:35 & 20 \\ \cline{3-5}
& & D\_BOTH & 03:04:55 & 20 \\ \hline
\end{tabular}
}
\end{table}
Los modelos de segmentación (U-Net, Attention U-Net y R2 Attention U-Net) fueron entrenados en dos conjuntos de datos: $D_{NONCAM}$ (imágenes no camufladas) y $D_{BOTH}$ (imágenes mixtas). Los tiempos de entrenamiento variaron significativamente debido al tamaño de los conjuntos de datos y a la complejidad de los modelos. Por ejemplo, Attention U-Net y R2 Attention U-Net, con parámetros y complejidad adicionales, tardaron más en entrenarse en comparación con el U-Net básico. El entrenamiento de U-Net se detuvo prematuramente debido a la falta de mejora en la pérdida de validación. Las curvas de pérdida de entrenamiento y validación para U-Net mostraron un aprendizaje efectivo pero indicaron 'overfitting' hacia el final. Attention U-Net y R2 Attention U-Net demostraron una mejora consistente en la pérdida de validación, con Attention U-Net experimentando un aumento temporal en la pérdida probablemente debido a la naturaleza estocástica del optimizador Adam. Ambos modelos mostraron potencial para obtener mejores resultados con un entrenamiento prolongado.
\begin{table}[ht]
\centering
\resizebox{\textwidth}{!}{%
\begin{tabular}{|l|l|l|l|l|}
\hline
\textbf{Modelo} & \textbf{Número de parámetros} & \textbf{Conjunto de Datos de Entrenamiento} & \textbf{Conjunto de Datos de Evaluación} & \textbf{IoU} \\ \hline
\multirow{\textbf{UNET}} & \multirow{7,771,873} & \multirow{D\_NONCAM} & CAM & 0.452 \\ \cline{4-5}
& & & Conjunto de Entrenamiento & 0.866 \\ \cline{4-5}
& & & Conjunto de Validación & 0.832 \\ \cline{3-5}
& & \multirow{D\_BOTH} & Conjunto de Entrenamiento & 0.646 \\ \cline{4-5}
& & & Conjunto de Validación & 0.637 \\ \hline
\multirow{\textbf{Attention}} & \multirow{9,344,841} & \multirow{D\_NONCAM} & CAM & 0.508 \\ \cline{4-5}
& & & Conjunto de Entrenamiento & 0.865 \\ \cline{4-5}
& & & Conjunto de Validación & 0.831 \\ \cline{3-5}
& & \multirow{D\_BOTH} & Conjunto de Entrenamiento & 0.592 \\ \cline{4-5}
& & & Conjunto de Validación & 0.590 \\ \hline
\multirow{\textbf{Residual}} & \multirow{9,787,497} & \multirow{D\_NONCAM} & CAM & 0.520 \\ \cline{4-5}
& & & Conjunto de Entrenamiento & 0.808 \\ \cline{4-5}
& & & Conjunto de Validación & 0.757 \\ \cline{3-5}
& & \multirow{D\_BOTH} & Conjunto de Entrenamiento & 0.559 \\ \cline{4-5}
& & & Conjunto de Validación & 0.532 \\ \hline
\end{tabular}
}
\end{table}
El rendimiento de la segmentación se evaluó utilizando 'Intersection over Union' (IoU) como métrica. Los modelos entrenados en $D_{NONCAM}$ y evaluados en el conjunto de datos CAM de animales camuflados mostraron:
\begin{itemize}
\item U-Net: IoU = 0.452
\item Attention U-Net: IoU = 0.508
\item R2 Attention U-Net: IoU = 0.520
\end{itemize}
Los modelos entrenados en $D_{BOTH}$ y evaluados en el conjunto de validación mostraron:
\begin{itemize}
\item U-Net: IoU = 0.637
\item Attention U-Net: IoU = 0.590
\item R2 Attention U-Net: IoU = 0.532
\end{itemize}
Entre los modelos entrenados en $D_{NONCAM}$, R2 Attention U-Net tuvo el IoU más alto para los animales camuflados, seguido por Attention U-Net y luego U-Net. Por el contrario, para los modelos entrenados en $D_{BOTH}$, U-Net fue el que mejor desempeño tuvo, seguido por Attention U-Net y R2 Attention U-Net. Estos resultados destacan la efectividad de los modelos en imágenes no camufladas, pero revelan desafíos en la segmentación de animales camuflados. Los problemas potenciales incluyen la complejidad de las imágenes camufladas, la insuficiencia de datos camuflados y las limitaciones de la arquitectura del modelo para manejar tales casos. A pesar de estos desafíos, modelos como R2 Attention U-Net mostraron capacidades de generalización prometedoras y el potencial para mejorar con entrenamiento adicional y ajustes en la estructura del modelo.
\begin{figure}[H]
\begin{center}
\includegraphics[width = 0.9\textwidth]{PHOTO/Imagenes/intor.jpeg}
\caption*{U-Net entrenado en $D_{NONCAM}$ - Segmentación de una imagen no camuflada del conjunto de validación (Imagen Original / Máscara / Predicción)}
\end{center}
\end{figure}
Los ejemplos visuales de los resultados de segmentación demuestran el rendimiento de los modelos. Para imágenes no camufladas, todos los modelos se desempeñaron bien, segmentando con precisión los animales. En cambio, la segmentación de imágenes camufladas reveló limitaciones, con modelos como U-Net luchando por distinguir el animal del fondo y R2 Attention U-Net mostrando potencial para mejorar en la forma de predicción y el reconocimiento de detalles. Estas observaciones subrayan la necesidad de capacidades de modelo mejoradas y datos camuflados adicionales para mejorar la precisión de la segmentación en escenarios complejos.
\newline
\par
Como conclusión, la inteligencia artificial está evolucionando rápidamente como una tecnología transformadora con implicaciones significativas para el futuro. Este proyecto, que amplía un estudio realizado en colaboración con el Grupo CS, examina los impactos económicos y ambientales de la IA mientras aborda el desafío específico de la segmentación de animales camuflados para explorar las complejidades de desarrollar modelos de IA sofisticados. La investigación en varias arquitecturas de Redes Neuronales Convolucionales (CNN), como U-Net, Attention U-Net y R2 Attention U-Net, revela que, aunque estos modelos destacan en la segmentación de animales no camuflados, tienen dificultades con imágenes camufladas, lo que resalta la dificultad de diseñar sistemas de IA para escenarios complejos del mundo real. El modelo R2 Attention U-Net mostró potencial y sugiere que arquitecturas mejoradas y mayores recursos computacionales podrían mejorar el rendimiento. Económicamente, se espera que la IA impulse la productividad y fomente el crecimiento, aunque también puede afectar los mercados laborales al cambiar la demanda, afectando la distribución de la desigualdad de ingresos. Además, el impacto ambiental de las crecientes necesidades computacionales de la IA plantea preocupaciones sobre el consumo de energía y las emisiones de carbono. Este proyecto subraya la necesidad de mejores metodologías para evaluar y mitigar los costes ambientales de la IA y destaca la importancia de equilibrar los beneficios de la tecnología con sus desafíos económicos y ambientales.
ChatGPT Plus
ChatGPT
El proyecto en cuestión busca explorar la inteligencia artificial (IA) desde múltiples perspectivas, enfocándose principalmente en su impacto económico y ambiental, así como en la complejidad de desarrollar modelos avanzados basados en estas tecnologías. En particular, el estudio se centra en la creación de algoritmos capaces de segmentar animales camuflados en entornos naturales, lo que ejemplifica los desafíos técnicos asociados con la construcción de sistemas de IA sofisticados.
El proyecto investiga las implicaciones económicas y ambientales del desarrollo de IA, destacando el considerable consumo de energía y los altos costos vinculados al entrenamiento de modelos a gran escala. Estos modelos, que incluyen redes neuronales convolucionales (CNN) como U-Net y sus variantes, demandan una gran capacidad computacional, lo que aumenta su huella de carbono y contribuye a la presión sobre recursos naturales como el agua utilizada en la refrigeración de centros de datos. A través de un análisis detallado, el proyecto busca no solo mejorar las capacidades técnicas de la IA en tareas complejas, sino también aumentar la conciencia sobre su impacto en la sostenibilidad y el medio ambiente.
Además, se profundiza en la complejidad técnica del desarrollo de modelos de IA, utilizando la segmentación de imágenes como caso de estudio. Para ello, se desarrollaron y entrenaron diversos modelos CNN para detectar y segmentar animales camuflados en imágenes. El proceso incluyó un meticuloso preprocesamiento de datos y el uso de arquitecturas como ResNet50 y U-Net, enfrentando retos como el overfitting y el alto costo computacional. Los resultados subrayan la sofisticación requerida para construir modelos de IA efectivos y la necesidad de prácticas de desarrollo más sostenibles y transparentes. Este enfoque holístico asegura que el proyecto sea científicamente relevante y contribuya al debate sobre el impacto socioambiental de la IA.
Tú dijiste:
traduce al ingles: El proyecto busca explorar la inteligencia artificial (IA) desde múltiples perspectivas, enfocándose principalmente en su impacto económico y ambiental, así como en la complejidad de desarrollar modelos avanzados basados en estas tecnologías. En particular, el estudio se centra en la creación de algoritmos capaces de segmentar animales camuflados en entornos complejos, lo que ejemplifica los desafíos técnicos asociados con la construcción de sistemas de IA sofisticados.
El proyecto investiga las implicaciones económicas y ambientales del desarrollo de IA, destacando el considerable consumo de energía y los altos costos vinculados al entrenamiento de modelos a gran escala. Estos modelos demandan una gran capacidad computacional, lo que aumenta su huella de carbono y contribuye a la presión sobre recursos naturales. A través de un análisis detallado, el proyecto busca no solo mejorar las capacidades técnicas de la IA en tareas complejas, sino también aumentar la conciencia sobre su impacto en la sostenibilidad y el medio ambiente.
Además, se profundiza en la complejidad técnica del desarrollo de modelos de IA, utilizando la segmentación de imágenes como caso de estudio. Para ello, se desarrollaron y entrenaron diversos modelos CNN para detectar y segmentar animales camuflados en ambientes complejos. El proceso incluyó un meticuloso preprocesamiento de datos y el uso de arquitecturas como ResNet50 y U-Net, enfrentando retos como el overfitting y el alto costo computacional. Los resultados subrayan la sofisticación requerida para construir modelos de IA efectivos y la necesidad de prácticas de desarrollo más sostenibles y transparentes. Este enfoque holístico asegura que el proyecto sea científicamente relevante y contribuya al debate sobre el impacto socioambiental de la IA.
ChatGPT Plus
ChatGPT
The project aims to explore artificial intelligence (AI) from multiple perspectives, focusing primarily on its economic and environmental impact, as well as the complexity of developing advanced models based on these technologies. Specifically, the study centers on the creation of algorithms capable of segmenting camouflaged animals in complex environments, exemplifying the technical challenges associated with building sophisticated AI systems.
The project investigates the economic and environmental implications of AI development, highlighting the significant energy consumption and high costs associated with training large-scale models. These models require substantial computational power, which increases their carbon footprint and adds pressure on natural resources. Through detailed analysis, the project seeks not only to enhance the technical capabilities of AI in complex tasks but also to raise awareness about its impact on sustainability and the environment.
Moreover, the project delves into the technical complexity of developing AI models, using image segmentation as a case study. Various CNN models were developed and trained to detect and segment camouflaged animals in complex environments. The process included meticulous data preprocessing and the use of architectures like ResNet50 and U-Net, addressing challenges such as overfitting and high computational costs. The results underscore the sophistication required to build effective AI models and the need for more sustainable and transparent development practices. This holistic approach ensures that the project is scientifically relevant and contributes to the debate on the socio-environmental impact of AI.
Trabajo Fin de Grado
Segmentación de seres vivos camuflados en imágenes con entornos restringidosutilizando herramientas de inteligencia artificialTitulación / Programa
Grado en Ingeniería en Tecnologías IndustrialesMaterias/ categorías / ODS
KTI-organizacion (GITI-O)Palabras Clave
Inteligencia Artificial, Redes Neuronales Convolucionales, Camuflaje, Visión Artificial, Impacto Medioambiental, Impacto EconómicoArtificial Intelligence, Convolutional Neural Networks, Camouflage, Computer Vision, Environmental Impact, Economic Impact