Red de conocimiento informático - Aprendizaje de código fuente - ¿Cuál es mejor, arquitectura o algoritmo?

¿Cuál es mejor, arquitectura o algoritmo?

Creo que la respuesta a esta pregunta no es "quién es mejor", sino que debería (o incluso debe) ser ambas cosas.

Hablemos primero de la importancia de los algoritmos de aprendizaje automático. La industria de TI en los últimos diez años ha estado dominada por Internet. La razón por la que los servicios de Internet se denominan servicios es que deben poder comprender, comprender y servir bien a los usuarios. Las industrias tradicionales como bancos, hospitales y centros comerciales también son industrias de servicios. La diferencia entre los servicios de Internet y ellos es que, al utilizar la inteligencia artificial para responder preguntas largas y atender al público, los usuarios no necesitan estar bien vestidos para obtener préstamos P2P. Ésta es la razón principal por la que la tecnología de inteligencia artificial se ha desarrollado en la industria de Internet en la última década. Esta es también la razón por la que todo el mundo puede ver que los ingresos de los llamados "ingenieros de algoritmos" son relativamente más altos que los de otros tipos de trabajos.

Existe una diferencia esencial entre los algoritmos de inteligencia artificial y los cursos profesionales universitarios "Algoritmos": este último enseña a todos cómo utilizar el "cerebro humano", utilizar el conocimiento humano para encontrar la solución y luego describirla. en código para que la máquina lo siga; el primero permite que la máquina "aprenda" o "resuma" el conocimiento a partir de los datos y luego resuelva el problema.

Para que la calidad del servicio de Internet sea superior es necesario responder bien a más preguntas, por lo que la cantidad de conocimiento debe ser mayor, lo que significa que uno debe poder aprender y resumir conocimiento a partir de más datos. Este es el valor central de los "grandes datos" y la importancia de las técnicas de "arquitectura".

El uso de Python + NumPy, R, Matlab, Octave o incluso una o dos GPU en una máquina no tiene tolerancia a fallas y solo puede cubrir el MPI de docenas de máquinas. En muchos casos, no puede resolverse. El problema del "aprendizaje de big data". Al leer, utilizar estas herramientas es solo para ayudar a todos a comprender el algoritmo de inteligencia artificial lo más rápido posible. La situación real es que es mejor dominar las ideas y métodos del desarrollo de sistemas a gran escala antes de trabajar, o al menos durante el trabajo.

El aprendizaje de big data ha respaldado los avances en la industria de Internet durante al menos diez años. Ha provocado silenciosamente muchos cambios revolucionarios: profesores de inteligencia artificial reconocidos y titulares también se enfrentan a una crisis de la mediana edad, entre ellos, aquellos con visión y capacidad de ejecución que buscan unirse a la empresa (incluidos aquellos con experiencia en la industria); comenzar a ingresar a la universidad para enseñar (como Alexander Smola, los expertos en arquitectura pasan al campo de los algoritmos de inteligencia artificial (como Jeff Dean) los proyectos de código abierto relacionados con el almacenamiento y procesamiento de big data están en auge (como Hadoop, Spark, Mesos, CoreOS, Kubernetes.

Si aún no ves la necesidad de tener ambos ante una tendencia tan grande, y aún así eliges uno de los dos, o incluso hablas de "avances en modelos de negocio" Al evitar la finalización de la tecnología, no tendrá buena información de registro. Afirmar "no tenemos big data" al recopilar datos de terceros puede causarnos vergüenza en el futuro cercano.