Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Open Datasets
Conjunto de datos COCO: objetos comunes en contexto
Imagen

Conjunto de datos COCO: objetos comunes en contexto

El conjunto de datos COCO («Objetos comunes en contexto») es una referencia esencial en el campo de la visión artificial. Fue diseñado para promover el desarrollo y la evaluación de modelos capaces de comprender escenas complejas en una variedad de contextos. Este conjunto de datos se distingue por el riesgo de sus anotaciones, que incluyen la detección de objetos, la segmentación de instancias, la segmentación semántica, el título de las imágenes e incluso la detección de poses humanas.

Obtén el dataset
Tamaño

Aproximadamente 330 000 imágenes en formato JPEG, con anotaciones JSON

Licencia

Licencia Creative Commons Atribución 4.0.

Description

El conjunto de datos COCO incluye más de 330.000 imágenes, incluyendo acerca de 200.000 están anotados. Contiene:

  • 80 categorías de objetos Común (persona, cheque, perro, silla, etc.)
  • Más de 1,5 millones de instancias anotadas
  • Notas para:
    • La Detección de objetos (casilleros de limitaciones)
    • La segmentar instancias (máscaras pixeladas para cada objeto)
    • La segmentación panóptica
    • La Generation of Leyendas para las imágenes (subtítulos)
    • La Detección de poses humanas (puntos clave del corazón)
  • Separaciones en subconjuntos: Entrena, valoriza, prueba, tiene veces con variantes como Development of Testing O Sin etiquetar en función de las versiones.

¿Para qué sirve este conjunto de datos?

El conjunto de datos COCO se utiliza ampliamente en la investigación y el desarrollo de la visión artificial. Gracias al riesgo de sus anotaciones y a la diversidad de escenas, permite introducir y evaluar modelos de inteligencia artificial para el reconocimiento de objetos, la segmentación de imágenes, la descripción automática de imágenes o incluso la comprensión de escenas complejas. Es una referencia esencial para comparar algoritmos y comparar los rendimientos entre diferentes modelos.

¿Puedes enriquecer o mejorar?

Si bien es muy completo, el conjunto de datos COCO puede ser Enriquecido o Adaptado según las necesidades específicas:

  • Adición de nuevas clases Tienes objeciones más raras.
  • Anotaciones adicionales : por ejemplo, añadir atributos, relaciones entre objetos o etiquetas contextuales.
  • Mejora de la calidad : algunas anotaciones se pueden comparar o corregir manualmente para casos críticos.
  • Adaptación a campos especializados : al combinar COCO con imágenes de los sectores industrial o médico, podemos crear versiones especializadas que sean más relevantes para casos de uso específicos.

🔎 En resumen

Criterio Evaluación
🧩 Facilidad de uso ⭐⭐⭐⭐☆ (bien estructurado, formatos comunes)
🧼 Necesidad de limpieza ⭐⭐☆☆☆ (algunas anotaciones imprecisas)
🏷️ Riqueza de anotaciones ⭐⭐⭐⭐⭐ (objetos, puntos clave, descripciones, etc.)
📜 Licencia comercial ✅ Sí – bajo licencia Creative Commons
👨‍💻 Ideal para principiantes ✅ Sí – ampliamente utilizado en tutoriales
🔁 Reutilizable para fine-tuning ✅ Ideal para detección, segmentación, NLP
🌍 Diversidad cultural ⚠️ Parcial – imágenes provenientes de Flickr

🧠 Recomendado para

  • Estudiantes que quieren aprender sobre detección de objetos o segmentación semántica
  • Ingenieros de IA que trabajan en modelos de visión computarizada multimodal
  • Proyectos que requieren Leyendas de imágenes, de Estimación de pose O anotaciones densas

🔧 Herramientas compatibles

  • Detector 2, Yolo V5, Detección MM para detección y segmentación
  • Estudio de etiquetas o CVAT para corregir o ampliar anotaciones
  • Transformers + VisionEncoderDecoder con abrazos para leyendas (Subtítulos)

💡 Consejo

El conjunto de datos COCO es extremadamente versátil : se puede utilizar tanto para la detección como para la segmentación, la generación de descripciones de imágenes y el aprendizaje multimodal.
También es compatible con numerosos modelos previamente entrenados accesible a través de PyTorch o TensorFlow.

Preguntas frecuentes

¿Puedes usar COCO para entrenar un modelo personalizado de detección de objetos?

Sí, COCO es especialmente adecuado para entrenar modelos de detección de objetos. Proporciona anotaciones de alta calidad y una amplia variedad de objetos en contextos realistas, lo que lo convierte en un excelente punto de partida para desarrollar o ajustar sus propios modelos.

¿Qué formatos de archivo se utilizan para las anotaciones COCO?

Las anotaciones COCO se proporcionan en formato JSON, siguiendo una estructura estandarizada definida por la API COCO. Este formato contiene información detallada sobre imágenes, categorías y objetos anotados (delimitadores, máscaras, puntos clave, etc.), que se puede usar fácilmente con múltiples bibliotecas de visión artificial.

¿Se puede usar COCO para otros fines además de la detección de objetos?

Sí, COCO se puede utilizar para diversas tareas de visión artificial, como la segmentación de instancias, la segmentación de la panóptica, el subtitulado automático de imágenes y la detección de poses humanas. Esto lo convierte en un conjunto de datos versátil para introducir y evaluar modelos multiárea.

Otros datasets

Ver más
Category

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique.

Category

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique.

Category

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique.