Red de conocimiento informático - Material del sitio web - Identificación del valor del contenido de la tecnología de inteligencia artificial y análisis de big data

Identificación del valor del contenido de la tecnología de inteligencia artificial y análisis de big data

Con el continuo desarrollo de la ciencia y la tecnología, hay cada vez más tipos de tecnologías. Es imposible que las personas dominen todas las tecnologías, pero la tecnología les ha dado demasiadas opciones. En este momento, la gente suele elegir qué tipo de tecnología. Caer en Perdido, no sé qué tipo de tecnología debo elegir, no sé con qué tecnología debo comenzar, e incluso digo que soy escéptico sobre el papel de la tecnología. Siento que algunas tecnologías lo son. no tiene sentido y no sé para qué sirven. Hoy discutimos la importancia de la tecnología en el campo de la ciencia de datos, analizamos si el análisis de big data es inútil, cuál es la tecnología más valiosa en el sistema de tecnología de ciencia de datos y la oposición en el campo de la inteligencia artificial es cada vez más fuerte, ya sea artificial. inteligencia ¿Puedo seguir adelante? ¿Hasta dónde puedo llegar? Tecnología Big Data: ¿Qué pasará con un mundo con recursos informáticos ilimitados?

El análisis de Big Data no es trivial

En los 70 años transcurridos desde el nacimiento de la computadora, el rendimiento informático de una Una sola computadora se acerca a la de la física. En el límite, la Ley de Moore, que acompaña el desarrollo de las computadoras, expira gradualmente. Durante estos 70 años de desarrollo, inicialmente se pudo describir con precisión mediante la Ley de Moore. En 1965, Gordon Moore, uno de los fundadores de Intel, propuso la famosa Ley de Moore después de estudiar las reglas de desarrollo del hardware informático:

Esta ley establece que la cantidad de transistores que se pueden acomodar en la misma área de un chip se duplicará cada 16 a 24 meses, y el rendimiento informático se duplicará cada 16 a 24 meses. En otras palabras, la potencia informática disponible para su compra a precio unitario se duplica cada 16 a 24 meses. En las décadas siguientes, la Ley de Moore fue confirmada en innumerables ocasiones. Hasta ahora, el rendimiento de las computadoras ha llegado a su límite y la Ley de Moore parece haber expirado.

Durante el período de desarrollo en el que entró en vigor la Ley de Moore, el desarrollo simultáneo de las computadoras fue acompañado por el desarrollo de redes de banda ancha y capacidad de almacenamiento físico. Durante más de medio siglo, el precio de la memoria ha bajado a casi. una milmillonésima parte de su precio original.

La velocidad de la banda ancha de Internet también está superando constantemente los límites.

Con la actualización de este hardware físico, la innovación tecnológica OTT también ha aparecido en el campo de la informática, y han surgido la informática distribuida y la tecnología informática cuántica. Estas dos tecnologías cambiarán decisivamente el lado de la oferta de recursos informáticos.

La tecnología informática distribuida se ha convertido gradualmente en el estándar industrial para la arquitectura de TI subyacente en el campo de big data. La computación distribuida puede lograr un objetivo informático, desplegar recursos y soporte informático ilimitados, resolver el problema de los cálculos excesivos en el caso de big data y superar las limitaciones de la potencia informática de una sola máquina física, y co-construir y compartir con la informática física. recursos para proporcionar una mejor base para la computación en la nube posterior sienta las bases. La aplicación de la tecnología informática distribuida tiene una larga historia. Hablando objetivamente, la tecnología informática distribuida hace que los recursos informáticos sean infinitos.

La tecnología informática cuántica dará un salto cualitativo en la potencia informática de un solo ordenador. Sin embargo, sin un avance en la tecnología central de las computadoras cuánticas, los humanos están indefensos ante el crecimiento explosivo de los datos. ....

Después de una exploración a largo plazo, la humanidad ahora ha decidido utilizar la tecnología informática distribuida para lograr una nueva ronda de innovación tecnológica de estilo OTT. Esto no solo resolverá los problemas de almacenamiento y cálculo masivo. datos, pero también ayuda a la humanidad a deshacerse por completo del cuello de botella de los recursos informáticos. ¿Qué clase de mundo será con recursos informáticos ilimitados...?

Pero a juzgar por el desarrollo actual de la tecnología de big data, la verdadera dificultad radica en dominar las herramientas subyacentes, porque el desarrollo aún está en su infancia y es necesario dominar una gran cantidad de herramientas subyacentes. Parece confuso porque hay poca gente. Sólo con un desarrollo maduro y el dominio de las herramientas básicas se puede reducir el umbral de los usuarios.

¿Nos resulta difícil este camino? ¡Es realmente difícil! Pero vale la pena que este camino del servicio al cliente sea difícil porque los beneficios serán muy rentables. La dificultad de este camino es que necesitamos dominar muchas herramientas básicas. Porque poca gente toma este camino, sigue siendo un camino de tierra y es difícil de recorrer, pero ¿por qué vale la pena superar las dificultades y caminar por él? Porque mientras no aparezcan los ordenadores cuánticos, con el fracaso de la Ley de Moore, La cantidad de datos seguirá aumentando y pasará una gran cantidad de personas. La demanda creará una carretera, luego pavimentará la carretera, instalará tarjetas para que las grandes empresas recauden impuestos y, tarde o temprano, se convertirá en una carretera. ¡Pero siempre que lo pases primero, podrás ver el paisaje que otros no pueden ver!

¡Siempre que lo atravieses primero, podrás ver el paisaje que otros no pueden ver!

Entonces podrás ver el paisaje que otros no pueden ver.

Esto es cierto para computadoras desde DOS hasta sistemas de escritorio, y para el aprendizaje automático Python desde el código fuente hasta las bibliotecas de algoritmos.

La producción mecánica libera capacidad intelectual y el aprendizaje automático libera capacidad cerebral

La esencia de la revolución de los datos

La tecnología de análisis de big data es valiosa y la tecnología de análisis de datos es aún más valioso, entonces todo ¿Cuál es el contenido más valioso del sistema de conocimiento de ciencia de datos?

Si realmente es interesante mirar el problema desde la perspectiva del descubrimiento de tecnología, entonces también podríamos revisar la pregunta: desde una perspectiva técnica (más que desde una perspectiva de empleo), los campos más prometedores en ciencia de datos ¿Cuál es el módulo de tecnología valiosa?

La inteligencia artificial es inteligencia basada en datos, y el núcleo de su toma de decisiones son los algoritmos. El desarrollo de la inteligencia artificial es similar a la revolución industrial del siglo XVIII, que reemplazó el trabajo manual por la producción mecánica. liberar el trabajo humano. La inteligencia de datos pasará. La participación humana reemplaza la toma de decisiones humana y libera el poder del cerebro humano. El aprendizaje automático es el núcleo del algoritmo que proporciona la toma de decisiones de inteligencia artificial.

El propósito principal de los algoritmos de aprendizaje automático es extraer la lógica interna y las leyes del funcionamiento de las cosas, es decir, aceptar información externa en forma de datos, utilizar datos para restaurar los atributos básicos y el funcionamiento. estado de cosas externas y utilizar algoritmos de aprendizaje automático para extraer leyes y restaurar leyes objetivas. Luego aplique reglas para ayudar en la toma de decisiones.

El aprendizaje automático puede sustituir la toma de decisiones repetitiva basada en humanos en el campo de la inteligencia artificial.

La metodología central del algoritmo es tomar el mejor método y obtener solo el valor central del análisis de datos, independientemente de los datos pequeños o grandes, el análisis es el estandarte del valor central técnico. importante. A medida que Python va y viene, ha dado lugar a nuevas mejoras en la infraestructura y Python todavía se ha convertido en una herramienta estándar.

Se puede decir que la habilidad principal de Python es el uso de muchas bibliotecas de algoritmos potentes para el modelado y análisis de algoritmos.

Inteligencia artificial fuerte, inteligencia artificial débil o retraso mental artificial

Si el desarrollo de la tecnología de inteligencia artificial impulsado por la troika de datos, los algoritmos y la potencia informática ha encontrado cuellos de botella

En enero de 2018, la Administración Nacional de Normalización de China emitió el documento "Inteligencia Artificial" Inteligente. Libro blanco de estandarización" explica las ideas básicas y el contenido de la disciplina de la inteligencia artificial. Se cree que la inteligencia artificial debería ser un sistema artificial construido en torno a actividades inteligentes. Es un proyecto de conocimiento y un proceso en el que las máquinas imitan a los humanos y utilizan el conocimiento para completar ciertos comportamientos.

Relativamente hablando, la inteligencia artificial en mi país comenzó relativamente tarde. La etapa de desarrollo de la inteligencia artificial se puede dividir en tres etapas, desde la década de 1950 hasta la de 1980, pero la inteligencia artificial acaba de nacer. Como muchas cosas no pueden expresarse en forma, los modelos establecidos tienen ciertas limitaciones. La segunda etapa es desde la década de 1980 hasta la de 1990. Los sistemas expertos se desarrollaron rápidamente y los modelos matemáticos lograron avances importantes. Sin embargo, debido a las deficiencias de los sistemas expertos en la adquisición de conocimientos y otros aspectos, el desarrollo de la inteligencia artificial ha entrado una vez más en un punto muerto. periodo bajo. La tercera etapa es desde principios del siglo XXI hasta el presente. Con la acumulación de big data, la innovación de algoritmos teóricos y la mejora de la potencia informática, la inteligencia artificial ha logrado avances en muchos campos de aplicación y marcó el comienzo de otro período próspero. .

Según la definición de desarrollo de inteligencia artificial y el "Libro Blanco de Inteligencia Artificial" emitido por el país, la inteligencia artificial se puede dividir en dos tipos: inteligencia artificial fuerte e inteligencia artificial débil.

La inteligencia artificial débil se refiere a máquinas inteligentes que realmente no se dan cuenta del razonamiento y la resolución de problemas. Estas máquinas parecen ser inteligentes en la superficie, pero no son verdaderamente inteligentes y no tendrán conciencia autónoma. Pero este sigue siendo el foco de la investigación actual. La inteligencia artificial débil también ha logrado avances significativos, como avances importantes en el reconocimiento de voz, el procesamiento de imágenes y la segmentación de objetos, la traducción automática, etc., e incluso puede acercarse o superar el nivel humano.

La inteligencia artificial fuerte se refiere a máquinas inteligentes que realmente pueden pensar. La gente piensa que dichas máquinas son sensibles y conscientes de sí mismas. Estas máquinas se pueden dividir en dos categorías: humanoides y no humanoides. En un sentido general, la inteligencia artificial que alcanza niveles humanos, es capaz de adaptarse a los desafíos del entorno externo y es consciente de sí misma se denomina "inteligencia artificial general", "inteligencia artificial fuerte" o "inteligencia similar a la humana". "

En general, creemos que ha llegado la era de la inteligencia artificial fuerte, pero aún no se ha popularizado. Sin embargo, también hay algunas objeciones interesantes que creen que la inteligencia artificial no es inteligente, o lo es. retrasado artificialmente.

Creen que cuando conducimos, nuestro cerebro procesa rápidamente información diversa: semáforos, marcas, tapas de alcantarillas en la carretera, agua estancada; en medio del camino, aplicaremos los frenos; cuando veamos un pájaro en el medio del camino, juzgaremos que el pájaro volará rápidamente sin disminuir la velocidad, si es una bolsa de plástico, podemos presionarla directamente; si es una piedra grande, debemos evitarla. Estas son las cosas que hemos acumulado a través de la experiencia y el sentido común en la vida. Sin embargo, la inteligencia artificial no puede hacer esto.

La inteligencia artificial que se está estudiando actualmente sí lo es. Inteligencia artificial "estrecha". Una inteligencia artificial "real" debe poder comprender la relación causal entre los alimentos. Por ejemplo, las señales cónicas colocadas por la policía en la carretera pueden reconocerse incluso si se caen o se aplastan. Sin embargo, con las capacidades actuales de reconocimiento gráfico, a las computadoras les resulta difícil reconocer obstáculos incluso si sus ángulos cambian. En otras palabras, la computadora trata todos los objetos en la carretera (incluidos los automóviles, otros vehículos y las señales). , peatones, bolsas de plástico, piedras, etc.) simplemente como obstáculos, y calcula y predice estos obstáculos al mismo tiempo, determina la ruta de movimiento del objeto para determinar si entrará en conflicto con la ruta de conducción del automóvil, y luego realiza la acción correspondiente.

Entonces surge la pregunta...

Cuando la computadora no puede entender un objeto, significa que no puede predecir con precisión la trayectoria del objeto, por ejemplo, incluso si existe. Si hay un perro en medio del camino, le resultará difícil predecir su próximo paso. ¿Qué pasa si hay un niño en medio del camino? Además, también es muy difícil para la computadora. reconocer las señales de tráfico al costado de la carretera. Cuando las señales están rotas, hay obstáculos, etc., afectará la capacidad de reconocimiento de la computadora.

Por lo tanto, la inteligencia artificial actual pertenece a la inteligencia artificial de "sentido estrecho". su núcleo se basa en el aprendizaje de big data. Pero en el mundo real que cambia rápidamente, las computadoras no pueden hacer frente a las emergencias porque no pueden comprender realmente la relación entre las cosas.

Podemos dividir la conducción autónoma en cinco niveles:

p>

Conducción autónoma asistida (como frenado automático, mantenimiento de carril, sistemas de asistencia al estacionamiento, etc.). Bajo ciertas condiciones, el automóvil puede conducir por sí solo, pero requiere monitoreo en tiempo real por parte del conductor (como el propio Tesla). -tecnología de conducción). Bajo ciertas condiciones, el automóvil puede conducir solo. El conductor no necesita monitoreo en tiempo real, pero debe estar preparado para tomar el control de la conducción en cualquier momento y puede realizar una conducción automática sin supervisión. p>

En la actualidad, todavía estamos muy lejos del quinto nivel de conducción sin conductor. Por supuesto, nadie sabrá cómo será el futuro de esta carretera.

En mi opinión, con el desarrollo de la ciencia y la tecnología, el camino de la inteligencia artificial no es imposible, pero es más difícil. No significa que la inteligencia artificial pueda traer beneficios cuando la inteligencia artificial es completamente poderosa. Los seres humanos, actualmente, la inteligencia artificial se ha aplicado en muchos campos a nuestro alrededor y nos ayuda constantemente. Podemos continuar ayudándonos a mejorar la inteligencia artificial a través de la inteligencia artificial y lograr un ciclo continuo. en el campo de la ciencia de datos. Aquellos que estén interesados ​​continuarán mejorándolos.

Espero que obtengan algo al leer este artículo. Si tienen alguna idea, espero que puedan discutirla juntos.