
DLT (blockchain), AI, RX(Realidad Extendida), QC (computación Cuántica), Nanotecnología, Biología Sintética y la interrelación y convergencia de dichas tecnologías.
Convergencia.tech ( AI - Google) :Gemini se está desarrollando como un modelo multimodal, lo que significa que podrá procesar y comprender tanto texto como imágenes. Esto le daría una gran ventaja sobre GPT-4, que actualmente solo puede procesar texto.
También es interesante ver que Google Gemini se capacitará con datos de una amplia gama de servicios, incluidos la búsqueda de Google, YouTube, los books de Google y Google Scholar.
Esto le dará acceso a un conjunto de datos de entrenamiento mucho más grande y rico más que lo que tiene GPT-4 tiene a su disposición, parece que Gemini se perfila como el gran competidor con GPT-4 y LLAMA 2. Será interesante ver cómo se comparan los modelos cuando Gemini sea lanzado oficialmente.
Sundar Pichai, CEO de Google, señaló recientemente: "Aunque todavía es temprano, ya estamos viendo impresionantes capacidades multimodales que no se veían en modelos anteriores". Nos ha afirmado que Gemini podrá generar texto e imágenes contextuales y se capacitará con transcripciones
de videos de YouTube. Gemini estará disponible en varios tamaños y capacidades, al igual que PaLM 2.
Gemini "combinará algunas de las fortalezas de los sistemas tipo AlphaGo
con las increíbles capacidades lingüísticas de los modelos grandes", la ventaja de google son las enormes cantidades de datos de entrenamiento que posee.
mi opinión no necesariamente el mejor sistema es el que prevalece sino el que de mayor facilidad de acceso a la información y uso accesible al alcance de la mayoría. ES un momento muy interesante...
Bard, el chatbot de IA de Google, se actualiza con nuevas funciones
Google ha anunciado la actualización de su chatbot de IA Bard, que ahora es aún más poderoso, fácil de usar y en español. Algunas de las nuevas características incluyen:
Bard aún no tiene una API pública actualmente. Sin embargo, Google ha anunciado que lanzará una API pública para Bard en el futuro. Esta API permitirá a los desarrolladores acceder a las capacidades de Bard y crear sus propias aplicaciones y servicios.
Bard ha lanzado recientemente varios productos, además de la versión en nuevos idiomas. Estos incluyen:
Estos productos están disponibles para los usuarios de todo el mundo y están diseñados para ayudar a las personas a comunicarse mejor, traducir idiomas y crear contenido de alta calidad.
Además de estos productos, Bard también está trabajando en una serie de otras características, como la capacidad de responder preguntas de una manera más informativa y atractiva. Bard también está trabajando para mejorar su capacidad de generar diferentes formatos de texto creativo, como poemas, código, guiones, piezas musicales, correo electrónico, cartas, etc
Convergencia.tech (BLOOM - BigScience) Quién es BigScience y de quien es el LLM denominado BLOOM
BigScience es un proyecto internacional de investigación e ingeniería para crear modelos de lenguaje grandes (LLM) de código abierto y de alta calidad. El proyecto fue fundado en 2022 por un grupo de investigadores de Google AI, DeepMind y OpenAI, y actualmente cuenta con más de 400 colaboradores de todo el mundo.
El objetivo es crear LLM que sean más útiles y accesibles que los modelos actuales. Para ello, el proyecto se centra en tres áreas clave:
Accesibilidad: quiere que los LLM sean accesibles para todos, independientemente de sus conocimientos técnicos. Para ello, el proyecto está desarrollando herramientas y recursos para que cualquiera pueda usar y contribuir a los modelos.
Calidad: quiere crear LLM que sean de la más alta calidad posible. Para ello, el proyecto está utilizando técnicas avanzadas de investigación e ingeniería, y está trabajando con un equipo de expertos de todo el mundo.
Transparencia: cree que es importante que los LLM sean transparentes y auditables. Para ello, el proyecto está publicando el código de sus modelos y los datos en los que se entrenaron.
BigScience es un proyecto ambicioso, los LLM creados por ellos podrían ser utilizados para una amplia gama de aplicaciones, desde el desarrollo de nuevos productos y servicios hasta el mejoramiento de la educación y la atención médica.
BLOOM es un modelo de lenguaje grande (LLM) desarrollado por la iniciativa fue entrenado en un conjunto de datos masivo de texto y código, y es capaz de generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder a tus preguntas de forma informativa. Todavía está en desarrollo, pero ya ha aprendido a realizar muchos tipos de tareas, incluyendo
Seguir instrucciones y completar solicitudes de forma reflexiva.
Usar sus conocimientos para responder a tus preguntas de forma integral e informativa, incluso si son abiertas, desafiantes o extrañas.
Generar diferentes formatos de texto creativo, como poemas, código, guiones, piezas musicales, correo electrónico, cartas, etc.
BLOOM es un recurso valioso para investigadores, desarrolladores y cualquier persona que quiera aprender más sobre el lenguaje y la inteligencia artificial.
https://lnkd.in/d3427a27
Convergencia.tech (WatsonX, LLAMA 2) :Y yo me preguntaba en que andaba el viejo y querido Watson (tenía buenos avances en salud),y hoy me entero, IBM ha anunciado que añadirá Llama 2, un LLM, modelo de lenguaje grande de Meta, a su plataforma de desarrollo de IA empresarial WatsonX. Llama 2 es un modelo de lenguaje factual de 70 mil millones de parámetros que está entrenado en un conjunto de datos masivo de texto y código. Se puede usar para una variedad de tareas de IA, como traducción, escritura de diferentes tipos de contenido creativo y respuesta a preguntas.
WatsonX es una plataforma que permite a las empresas desarrollar e implementar soluciones de IA rápidamente y fácilmente. Al añadir Llama 2 a WatsonX, IBM está haciendo que la IA sea más accesible para las empresas de todos los tamaños.
Aquí hay algunos ejemplos específicos de cómo se puede usar Llama 2 en WatsonX:
Las empresas pueden usar Llama 2 para generar contenido creativo, como artículos, correos electrónicos, publicaciones en redes sociales,para traducir textos de un idioma a otro,
Las empresas pueden usar Llama 2 para responder a preguntas de los clientes de manera rápida y precisa.
Pero que diferencias hay entre Watson y WatsonX?
Watson es una plataforma de inteligencia artificial (IA) desarrollada por IBM. Fue lanzado por primera vez en 2011 y se ha utilizado en una variedad de aplicaciones, incluidas la atención médica, la finanzas y el servicio al cliente.
WatsonX es una nueva plataforma de IA desarrollada por IBM. Fue anunciado en 2023 y está diseñado para ser más fácil de usar y más poderoso que Watson. WatsonX se basa en los últimos avances en IA, incluidos los modelos de lenguaje grandes (LLM) y el aprendizaje automático de refuerzo (RL).
Aquí hay algunas de las principales diferencias entre Watson y WatsonX:
WatsonX es más fácil de usar. WatsonX se basa en una interfaz gráfica de usuario (GUI) que es más fácil de usar que la interfaz de línea de comandos de Watson. Esto hace que WatsonX sea más accesible para los usuarios que no son expertos en IA.
WatsonX es más poderoso. WatsonX se basa en los últimos avances en IA, incluidos los modelos de lenguaje grandes (LLM) y el aprendizaje automático de refuerzo (RL). Esto significa que WatsonX puede realizar tareas que Watson no podía hacer, como generar contenido creativo y traducir idiomas.
WatsonX es más escalable. WatsonX está diseñado para ser más escalable que Watson. Esto significa que WatsonX puede manejar más datos y más usuarios que Watson.
En cada momento de cada día, nuestro cerebro esculpe meticulosamente una gran cantidad de señales sensoriales en representaciones significativas del mundo que nos rodea. Sin embargo, aún no se comprende bien cómo funciona realmente este proceso continuo.
Hoy, Meta anuncia un hito importante en la búsqueda de esa pregunta fundamental. Utilizando magnetoencefalografía (MEG), una técnica de neuroimagen no invasiva en la que se toman miles de mediciones de la actividad cerebral por segundo, mostramos un sistema de inteligencia artificial capaz de decodificar el desarrollo de representaciones visuales en el cerebro con una resolución temporal sin precedentes.
Este sistema de IA se puede desplegar en tiempo real para reconstruir, a partir de la actividad cerebral, las imágenes percibidas y procesadas por el cerebro en cada instante. Esto abre una vía importante para ayudar a la comunidad científica a comprender cómo se representan las imágenes en el cerebro y luego se utilizan como base de la inteligencia humana. A largo plazo, también puede proporcionar un trampolín hacia interfaces cerebro-computadora no invasivas en un entorno clínico que podría ayudar a las personas que, después de sufrir una lesión cerebral, han perdido la capacidad de hablar.
Mi opinión personal es este desarrollo tiene un potencial tremendo.. que vemos, que olemos que sentimos.. aún falta un gran camino por recorrer pero tiene aplicaciones también a futuro en persona que no pueden ver, al mismo tiempo nuestro cerebro procesa una gran cantidad de actividades de distinto tipo y nos va a permitir entender una gran cantidad de posibilidades como se prioriza según las actividades ciertas funciones. muy interesante futuro.
Fuente:
https://lnkd.in/eC6eCgDi