Playing a video (Stop)
Powered by Haskell (GHC 8.8.4 )

DeepSeek es una empresa china enfocada en hacer que la AGI sea una realidad. Si te refieres a su modelo de lenguaje DeepSeek-V3, las ventajas frente a ChatGPT podrían incluir:

 

Optimización para chino: DeepSeek-V3 está especialmente optimizado para entender y generar texto en chino, lo que lo hace más efectivo para tareas en ese idioma.

 

Enfoque en AGI: DeepSeek está más centrado en el desarrollo de la AGI (Inteligencia General Artificial), lo que podría traer innovaciones más avanzadas en el futuro.

 

Aplicaciones específicas: DeepSeek-V3 podría estar más adaptado a aplicaciones específicas en el mercado chino, como servicios financieros, legal y consultoría.

 

Costo y eficiencia: DeepSeek-V3 podría ofrecer una mejor relación costo-eficiencia para usuarios y empresas en China, al estar diseñado para ese mercado.

 

Integración con servicios locales: Al ser una empresa china, DeepSeek-V3 podría integrarse mejor con servicios y plataformas locales, ofreciendo una experiencia más fluida para los usuarios en esa región.

 

Sin embargo, ChatGPT, desarrollado por OpenAI, tiene ventajas como un mayor reconocimiento global, soporte para múltiples idiomas y una amplia gama de aplicaciones en diversos sectores. La elección entre ambos dependerá de las necesidades específicas del usuario y del contexto de uso.

1. Requisitos de Hardware

DeepSeek-V3 es un modelo extremadamente grande y requiere infraestructura potente para entrenamiento o despliegue.

 

GPUs:

 

Se recomienda NVIDIA H800 GPUs (u otras GPUs de alto rendimiento como A100 o H100).

Debe tener soporte para NVLink y InfiniBand (IB) para comunicación rápida entre nodos.

Para entrenamiento: Un cluster con mínimo 2048 GPUs.

Para inferencia: Un mínimo de 32 GPUs para tareas básicas.

Memoria GPU:

 

Cada GPU debe tener al menos 80 GB de memoria.

CPU:

 

Procesadores multinúcleo con soporte para operaciones paralelas avanzadas.

64 GB de RAM por nodo mínimo (preferiblemente más).

Almacenamiento:

 

Se recomienda almacenamiento SSD de alto rendimiento con al menos 10 TB de espacio.

Velocidad de lectura/escritura alta es crítica para manejar los datos de entrenamiento y las cargas del modelo.

leí que el entrenamiento es mucho más rápido

pesa mas de 400 gigas y hay modelos mas livianos desde 8 gigas

Deepseek ha sido desarrollado con recursos baratos de NVidia y sin embargo es mejor que los modelos de IA de ellos

no sé si me da confianza o no

pero OpenAI siendo privada y de USA tampoco da confianza

Incertidumbre de los costes que se han dicho

más rápida pero no tan precisa

al ser open source tiende a no generar confianza aunque yo desconfiaria mas de los modelos privativos

no hace falta una inversión tan grande como la que se hizo con ChatGPT para hacer un modelo

 eficiente de esas caracteristicas

investigando las diferencias con ChatGPT la seguridad no le tengo confianza

es open source

DeepSeek

DeepSeeK