banner

Noticias

Sep 20, 2023

Bucle OODA

A continuación se muestra una encuesta de las plataformas GPT recientemente anunciadas, seleccionadas de los titulares de IA generativa exponencial de los últimos meses. Es una selección curada de plataformas *GPT y *AI para los lectores de OODA Loop, en una amplia gama de sectores industriales. Desde la solicitud de patente de IndexGPT de JPMorgan hasta la IA de Charlotte de Crowdstrike, examine la riqueza de la tierra de la IA aquí.

Código fuente:https://github.com/Significant-Gravitas/Auto-GPT

Acerca de:Un intento experimental de código abierto para hacer que GPT-4 sea completamente autónomo.

#AutoGPT es el nuevo chico disruptivo en el bloque: puede aplicar el razonamiento de #ChatGPT a problemas más amplios y complejos que requieren planificación y múltiples pasos.

Todavía temprano pero muy impresionante con muchas aplicaciones de salud y biomedicina.

Acabo de probar #AgentGPT y le pedí que... pic.twitter.com/ywFhtjxjYD

—Daniel Kraft, MD (@daniel_kraft) 12 de abril de 2023

¿Qué es Auto-GPT y por qué es importante?: En esencia, Auto-GPT utiliza la versatilidad de los últimos modelos de IA de OpenAI para interactuar con software y servicios en línea, lo que le permite realizar tareas "autónomas" como X e Y. Pero a medida que están aprendiendo con grandes modelos de lenguaje, esta capacidad parece ser tan amplia como un océano pero tan profunda como un charco. Auto-GPT, que es posible que haya visto explotar en las redes sociales recientemente, es una aplicación de código abierto creada por el desarrollador de juegos Toran Bruce Richards que utiliza los modelos de generación de texto de OpenAI, principalmente GPT-3.5 y GPT-4, para actuar " de forma autónoma".

No hay magia en esa autonomía. Auto-GPT simplemente maneja los seguimientos de un aviso inicial de los modelos de OpenAI, preguntándolos y respondiéndolos hasta que se complete una tarea. Auto-GPT, básicamente, es GPT-3.5 y GPT-4 combinados con un bot complementario que instruye a GPT-3.5 y GPT-4 sobre qué hacer. Un usuario le dice a Auto-GPT cuál es su objetivo y el bot, a su vez, usa GPT-3.5 y GPT-4 y varios programas para llevar a cabo todos los pasos necesarios para lograr cualquier objetivo que se haya fijado.

Lo que hace que Auto-GPT sea razonablemente capaz es su capacidad para interactuar con aplicaciones, software y servicios tanto en línea como locales, como navegadores web y procesadores de texto. Por ejemplo, ante un mensaje como "ayúdame a hacer crecer mi negocio de flores", Auto-GPT puede desarrollar una estrategia publicitaria algo plausible y crear un sitio web básico. (1)

Para saber cómo crear su propio agente Auto-GPT AI, vaya a: https://www.tomshardware.com/how-to/auto-gpt-ai-agent

Código fuente:N/A (solo solicitud de patente)

Acerca de: JPMorgan Chase presentó una solicitud de marca registrada para IndexGPT, un chatbot diseñado para responder preguntas sobre finanzas. Según se informa, el bot se utilizará para servicios de publicidad y marketing, un índice de valores de valores e información financiera en línea y asesoramiento sobre inversiones. (2)

JPMorgan está trabajando activamente en el rival #ChatGPT, solicita la marca comercial "IndexGPT". https://t.co/VUo9eZ1vTP

— Cointelegraph (@Cointelegraph) 27 de mayo de 2023

Fuente de imagen: Coin Telegraph: solicitud de marca registrada de JPMorgan para IndexGPT. Fuente: USPTO

JP Morgan presenta una patente para el clon financiero de ChatGPT, IndexGPT: El gigante financiero JPMorgan Chase presentó una solicitud de marca registrada para un chatbot de temática financiera llamado IndexGPT a principios de este mes. Según la solicitud presentada el 11 de mayo ante la Oficina de Patentes y Marcas de los Estados Unidos, el chatbot se usaría para servicios de publicidad y marketing, un índice de valores de valores e información financiera en línea y asesoramiento de inversiones. "La IA y la materia prima que la alimenta, los datos, serán fundamentales para el éxito futuro de nuestra empresa", dijo el director ejecutivo de JPMorgan Chase, Jamie Dimon, en una carta a los accionistas en abril. "La importancia de implementar nuevas tecnologías simplemente no se puede exagerar". En una encuesta realizada en febrero por JP Morgan, más de la mitad de los comerciantes institucionales encuestados dijeron que la inteligencia artificial y el aprendizaje automático serían las tecnologías más influyentes para dar forma al futuro del comercio en los próximos tres años.

Mientras JP Morgan busca aprovechar la inteligencia artificial en sus sistemas financieros, dijo que la compañía está dedicando más de 2000 administradores de datos, científicos de datos e ingenieros de aprendizaje automático para desarrollar sus capacidades de IA, calificándolas de "vinculadas indisolublemente" con los sistemas basados ​​en la nube, ya sea públicas o privadas y capacidades digitales. "Los enfoques nativos basados ​​en la nube serán, en última instancia, más rápidos, más baratos y alineados con las técnicas de inteligencia artificial más nuevas, y nos brindarán un fácil acceso a las herramientas de desarrollo en constante evolución", dijo Dimon. La industria financiera se ha interesado particularmente en la capacidad de AI para procesar datos. En marzo, un ingeniero de inteligencia artificial en el Reino Unido, Mayo Oshin, desarrolló un bot que lleva el nombre de Buffett para analizar grandes documentos financieros. (3)

Código fuente:https://github.com/imartinez/privateGPT

Acerca de: Interactúe de forma privada con sus documentos utilizando el poder de GPT, de forma 100 % privada, sin fugas de datos. Haga preguntas a sus documentos sin conexión a Internet, utilizando el poder de los LLM. 100% privado, ningún dato sale de su entorno de ejecución en ningún momento. Puede ingerir documentos y hacer preguntas sin conexión a Internet.

privacyGPT https://t.co/w8XUa6d7nQ No más alimentar el RLHF de openai por interés propio. (Puede sentir que no es gran cosa, pero en un futuro cercano lo será). #chatGPT #privacy #PrivacyMatters #privacyGPT

— Félix Peña (@kaisen2350) 11 de mayo de

¿Qué es un ChatGPT privado que interactúa con sus documentos locales?: Si bien ChatGPT es conveniente, tiene sus ventajas y desventajas. El hecho de que requiera que envíe sus datos a través de Internet puede ser una preocupación cuando se trata de privacidad, especialmente si está utilizando documentos confidenciales. Además, requiere una conexión a Internet constante, lo que puede ser un problema en áreas con poca conectividad. Afortunadamente, hay una alternativa. Puede ejecutar su propio modelo de lenguaje grande (LLM) local, lo que le permite controlar sus datos y su privacidad. En este artículo, exploraremos cómo crear un ChatGPT privado que interactúe con sus documentos locales, brindándole una poderosa herramienta para responder preguntas y generar texto sin tener que depender de los servidores de OpenAI. También veremos PrivateGPT, un proyecto que simplifica el proceso de creación de un LLM privado.

Mediante el uso de un modelo de idioma local y una base de datos vectorial, puede mantener el control sobre sus datos y garantizar la privacidad sin dejar de tener acceso a potentes capacidades de procesamiento de idiomas. El proceso puede requerir cierta experiencia técnica, pero hay muchos recursos disponibles en línea para ayudarlo a comenzar. Una solución es PrivateGPT, un proyecto alojado en GitHub que reúne todos los componentes mencionados anteriormente en un paquete fácil de instalar. PrivateGPT incluye un modelo de idioma, un modelo de incrustación, una base de datos para incrustaciones de documentos y una interfaz de línea de comandos. Admite varios tipos de documentos, incluidos texto sin formato (.txt), valores separados por comas (.csv), Word (.docx y .doc), PDF, Markdown (.md), HTML, Epub y archivos de correo electrónico (.eml y .msg). (4)

Para saber cómo crear un ChatGPT privado que interactúe con sus documentos locales, vaya a: https://bdtechtalks.com/2023/06/01/create-privategpt-local-llm/

Disponible en:https://www.notion.so/product/ai

Acerca de: Notion AI es una nueva función de inteligencia artificial de la aplicación de productividad Notion. Notion AI está diseñado para ayudarlo a ser más productivo al comprender sus hábitos de trabajo y brindarle sugerencias sobre cómo mejorarlos.

Notion AI ahora está disponible para todos.

Sin lista de espera, sin "vista previa limitada".

Comience: https://t.co/qKmTw6ieJP pic.twitter.com/JcQra1YbZf

– Noción (@NotionHQ) 22 de febrero de 2023

Notion ahora permite que cualquiera use sus funciones de IA: ahora puede probar las funciones de IA de la aplicación para tomar notas de Notion, que están destinadas a ayudarlo a escribir y refinar texto, resumir puntos clave en notas existentes y generar listas de tareas, de acuerdo con un anuncio de la empresa. Notion comenzó a probar su oferta de IA en noviembre, pero ahora está disponible para cualquier persona que tenga una cuenta y no se requiere una lista de espera.

Si bien la IA integrada en la aplicación puede escribir artículos de principio a fin (le pedí que escribiera una publicación de blog sobre el anuncio de Notion AI, y escupió 385 palabras, de las cuales solo algunas eran precisas), la compañía lo presenta más como un "socio de pensamiento". En su publicación de anuncio, la compañía dice que una de las características que más usaron los evaluadores alfa fue pedirles que mejoraran el texto que habían escrito. Por ejemplo, puede resaltar texto y pedirle a Notion que lo reescriba en un tono diferente, use un lenguaje más simple o simplemente complete o reduzca una oración. (5)

Disponible en:Charlotte AI está actualmente disponible en versión preliminar privada para clientes.

Acerca de: "Un nuevo analista de seguridad de IA generativa que utiliza los datos de seguridad de mayor fidelidad del mundo y se mejora continuamente mediante un estrecho ciclo de retroalimentación con los cazadores de amenazas líderes en la industria de CrowdStrike, los operadores de detección y respuesta gestionados y los expertos en respuesta a incidentes. Charlotte AI [is the] primera oferta creada con nuestro motor Charlotte AI y ayudará a los usuarios de todos los niveles a mejorar su capacidad para detener las infracciones y reducir la complejidad de las operaciones de seguridad. Los clientes pueden hacer preguntas en inglés sencillo y en docenas de otros idiomas para recibir respuestas intuitivas de la plataforma CrowdStrike Falcon. " (6)

CrowdStrike ha sido pionero en el uso de inteligencia artificial desde que introdujimos por primera vez la protección impulsada por IA para reemplazar el antivirus basado en firmas hace más de 10 años, y continuamos integrándola profundamente en nuestra plataforma.

🤝 Conoce a Charlotte AI. https://t.co/mWKH0tcT7e

– CrowdStrike (@CrowdStrike) 30 de mayo de 2023

Conozca a Charlotte, la nueva asistente de IA generativa de CrowdStrike: Charlotte AI es la última asistente de IA generativa basada en seguridad que ha llegado al mercado: CrowdStrike se sube al carro de la inteligencia artificial (IA) generativa, ya que la compañía prueba su propio asistente de seguridad de IA generativa, conocida como Charlotte AI. Charlotte AI está diseñada para responder preguntas como si un sistema es vulnerable a una vulnerabilidad específica y para proporcionar elementos de acción recomendados, dijo la compañía. También se le puede solicitar que busque actividad maliciosa, como el movimiento lateral en las máquinas con Windows. El objetivo es proporcionar a los profesionales de TI y seguridad con menos experiencia la información que necesitan sobre sus entornos y la postura de seguridad para tomar mejores decisiones más rápido.

Las preguntas de ejemplo incluyen:

En los últimos meses, varias empresas, incluidas Microsoft y Google, han incorporado asistentes generativos de inteligencia artificial en sus plataformas de seguridad. Estos asistentes ofrecen a los analistas de seguridad una forma de consultar grandes cantidades de datos de seguridad utilizando lenguaje natural y hacer correlaciones entre diferentes fuentes de datos. En este sentido, Charlotte AI proporciona una interfaz de lenguaje natural a la plataforma Falcon para que los analistas de seguridad, "independientemente del nivel de experiencia o el tamaño de la organización, [puedan] ser un usuario avanzado de la plataforma Falcon", dijo la compañía. (7)

Código fuente: N / A; los diversos LLM utilizados para la experimentación y la investigación se pueden encontrar en la sección de recursos de este documento técnico.

Acerca de: FrugalGPT es una variante del modelo GPT (Generative Pre-trained Transformer) desarrollado por OpenAI. Está diseñado para ser una versión más eficiente desde el punto de vista informático y rentable de GPT con requisitos informáticos reducidos. La idea principal detrás de FrugalGPT es ofrecer una versión más liviana y accesible del modelo GPT, que sea factible de implementar y utilizar en entornos con recursos limitados. Al reducir el tamaño del modelo y la complejidad computacional, FrugalGPT tiene como objetivo lograr un equilibrio entre el rendimiento y la eficiencia.

FrugalGPT: Cómo usar LLM a bajo costo

-La cascada LLM aprende qué combinaciones de LLM usar para diferentes consultas para reducir costos / mejorar la precisión

- Iguala el rendimiento del mejor LLM individual (GPT-4) con una reducción de costos del 98 % - O mejora la precisión en un 4 % con el mismo costo https://t.co/z9W6E9Ke8o pic.twitter.com/mjYylbNslj

– John Nay (@johnjnay) 10 de mayo de 2023

FrugalGPT: cómo usar modelos de lenguajes grandes mientras se reducen los costos y se mejora el rendimiento: existe un número cada vez mayor de modelos de lenguajes grandes (LLM) que los usuarios pueden consultar por una tarifa. Revisamos el costo asociado con la consulta de API LLM populares, por ejemplo, GPT-4, ChatGPT, J1-Jumbo, y encontramos que estos modelos tienen estructuras de precios heterogéneas, con tarifas que pueden diferir en dos órdenes de magnitud. En particular, el uso de LLM en grandes colecciones de consultas y texto puede resultar costoso. Motivados por esto, describimos y discutimos tres tipos de estrategias que los usuarios pueden explotar para reducir el costo de inferencia asociado con el uso de LLM: 1) adaptación rápida, 2) aproximación LLM y 3) cascada LLM. Como ejemplo, proponemos FrugalGPT, una instancia simple pero flexible de la cascada LLM que aprende qué combinaciones de LLM usar para diferentes consultas con el fin de reducir costos y mejorar la precisión. Nuestros experimentos muestran que FrugalGPT puede igualar el rendimiento del mejor LLM individual (por ejemplo, GPT-4) con una reducción de costos de hasta el 98 % o mejorar la precisión sobre GPT-4 en un 4 % con el mismo costo. Las ideas y los hallazgos presentados aquí sientan las bases para el uso de LLM de manera sostenible y eficiente. (8)

Disponible en:Slack describe muchos casos de uso y herramientas para desarrolladores en https://slack.com/blog/news/introducing-slack-gpt

Acerca de: Slack está integrando una "experiencia de inteligencia artificial conversacional" que permite a los usuarios automatizar y personalizar los procesos de trabajo, dijo la compañía el jueves. Slack GPT incluirá capacidades nativas de IA destinadas a funciones de trabajo específicas, como ventas, marketing y TI. Otras características, incluida la aplicación ChatGPT para Slack, están disponibles en versión beta o se lanzarán este verano.

Salesforce anunció hoy SlackGPT, una nueva experiencia generativa impulsada por IA planificada para la aplicación Slack, que se lanzará pronto. https://t.co/Oep5K8yIGu

– VentureBeat (@VentureBeat) 4 de mayo de 2023

Slack GPT llega para automatizar los flujos de trabajo de comunicación centrales: las nuevas capacidades permitirán a los clientes crear flujos de trabajo sin código que integren acciones de IA con indicaciones simples, según Ali Rayl, vicepresidente sénior de productos en Slack. La lista de proveedores que integran funciones de IA en productos existentes es larga y se está expandiendo. Slack se une a empresas como Zoom, Atlassian, Stack Overflow y los tres hiperescaladores más grandes. Microsoft y Google también equiparon sus suites de eficiencia con capacidades de inteligencia artificial generativa. En marzo, Slack presentó una aplicación ChatGPT, disponible para los usuarios en versión beta. Pero el anuncio de hoy acerca la IA generativa a la forma en que los usuarios interactúan con Slack, según Rayl.

"De lo que estamos hablando en el futuro es de las integraciones nativas con diferentes superficies de productos de Slack", dijo Rayl. Esto incluye resúmenes de canales, transcripciones de reuniones, una herramienta de creación de texto llamada Canvas y creación de flujos de trabajo sin código. Slack GPT permitirá a los usuarios integrar un modelo de lenguaje de elección, como GPT de OpenAI, Claude de Anthropic "o, en el futuro, LLM patentado de Salesforce", dijo Rayl. Como parte de la experiencia Slack GPT, los usuarios tendrán acceso a la aplicación Einstein GPT para Slack, una interfaz conversacional para conectar la plataforma de colaboración con el sistema Customer 360 de Salesforce.

Las nuevas características permitirán a los usuarios personalizar el kit de herramientas de IA generativa para funciones específicas. Los trabajadores del servicio de atención al cliente tendrán acceso a soluciones y respuestas generadas por IA, por ejemplo. También podrán generar automáticamente resúmenes de casos para compartir en canales y lienzos. Los desarrolladores y trabajadores de TI que usan las funciones pueden escanear automáticamente las actividades del canal y resumir el análisis de la causa raíz para mejorar la gestión de incidentes.

A pesar del amplio interés en torno a la IA generativa, las preguntas siguen relacionadas con la privacidad de los datos, ya que el éxito de los sistemas depende de los datos que ingieren. En un comunicado enviado por correo electrónico, Slack dijo que todas las aplicaciones en su directorio se someten a una revisión exhaustiva antes de su distribución pública. "Slack GPT funciona con la plataforma segura de Slack, que ofrece una variedad de configuraciones y controles para que nuestros clientes puedan tomar las decisiones correctas para sus propias necesidades de seguridad y cumplimiento", dijo la compañía en un comunicado enviado por correo electrónico. "Esto incluye permitir que los administradores implementen un proceso de aprobación de aplicaciones para que no se pueda instalar ninguna aplicación sin su permiso". (9)

Disponible en:Para obtener más información, visite Bloomberg.com/company o solicite una demostración.

Acerca de: "Bloomberg... publicó un artículo de investigación que detalla el desarrollo de BloombergGPTTM, un nuevo modelo de inteligencia artificial (IA) generativa a gran escala. Este modelo de lenguaje extenso (LLM) ha sido entrenado específicamente en una amplia gama de datos financieros para respaldar un conjunto diverso de tareas de procesamiento de lenguaje natural (NLP) dentro de la industria financiera". (10)

ChatGPT es impresionante, pero la industria necesita herramientas más especializadas. Ingrese a #BloombergGPT, trayendo IA a Wall Street y al mundo de las finanzas. @mdredze de @JHUCompSci habla sobre su trabajo en el proyecto y el futuro de los modelos de lenguaje de dominio específico: https://t.co/VhsBxaHdAF

— Ingeniería de Johns Hopkins (@HopkinsEngineer) 1 de junio de 2023

Presentamos BloombergGPT, el modelo de lenguaje grande de 50 000 millones de parámetros de Bloomberg, diseñado específicamente desde cero para las finanzas: durante más de una década, Bloomberg ha sido pionero en su aplicación de inteligencia artificial, aprendizaje automático y PNL en finanzas. Hoy, Bloomberg admite un conjunto muy grande y diverso de tareas de PNL que se beneficiarán de un nuevo modelo de lenguaje consciente de las finanzas. Los investigadores de Bloomberg fueron pioneros en un enfoque mixto que combina datos financieros con conjuntos de datos de propósito general para entrenar un modelo que logra los mejores resultados de su clase en los puntos de referencia financieros, al mismo tiempo que mantiene un rendimiento competitivo en los puntos de referencia LLM de propósito general.

Para lograr este hito, el grupo de investigación y productos de ML de Bloomberg colaboró ​​con el equipo de ingeniería de IA de la empresa para construir uno de los conjuntos de datos específicos de dominio más grandes hasta la fecha, aprovechando los recursos existentes de creación, recopilación y conservación de datos de la empresa. Como empresa de datos financieros, los analistas de datos de Bloomberg han recopilado y conservado documentos en lenguaje financiero durante cuarenta años. El equipo extrajo de este extenso archivo de datos financieros para crear un conjunto de datos completo de 363 000 millones de tokens que consta de documentos financieros en inglés.

Estos datos se aumentaron con un conjunto de datos públicos de 345 000 millones de tokens para crear un gran corpus de capacitación con más de 700 000 millones de tokens. Usando una parte de este corpus de entrenamiento, el equipo entrenó un modelo de lenguaje causal de solo decodificador de 50 mil millones de parámetros. El modelo resultante se validó en los puntos de referencia de PNL específicos de finanzas existentes, un conjunto de puntos de referencia internos de Bloomberg y categorías amplias de tareas de PNL de propósito general de puntos de referencia populares (por ejemplo, BIG-bench Hard, evaluaciones de conocimiento, comprensión de lectura y tareas lingüísticas) . En particular, el modelo BloombergGPT supera a los modelos abiertos existentes de un tamaño similar en tareas financieras por amplios márgenes, al tiempo que sigue funcionando a la par o mejor en los puntos de referencia generales de NLP.

Tabla 1. Cómo se desempeña BloombergGPT en dos amplias categorías de tareas de NLP: específicas de finanzas y de propósito general. (10)

BloombergGPT: un modelo de lenguaje extenso para finanzas: el uso de NLP en el ámbito de la tecnología financiera es amplio y complejo, con aplicaciones que van desde el análisis de sentimientos y el reconocimiento de entidades nombradas hasta la respuesta a preguntas. Se ha demostrado que los modelos de lenguaje extenso (LLM) son efectivos en una variedad de tareas; sin embargo, no se ha reportado en la literatura ningún LLM especializado en el dominio financiero. En este trabajo, presentamos BloombergGPT, un modelo de lenguaje de 50 mil millones de parámetros que se entrena en una amplia gama de datos financieros. Construimos un conjunto de datos de 363 000 millones de tokens basado en las extensas fuentes de datos de Bloomberg, quizás el conjunto de datos específico de dominio más grande hasta el momento, aumentado con 345 000 millones de tokens de conjuntos de datos de propósito general. Validamos BloombergGPT en puntos de referencia LLM estándar, puntos de referencia financieros abiertos y un conjunto de puntos de referencia internos que reflejan con mayor precisión nuestro uso previsto. Nuestro entrenamiento de conjuntos de datos mixtos conduce a un modelo que supera a los modelos existentes en tareas financieras por márgenes significativos sin sacrificar el rendimiento en los puntos de referencia generales de LLM. Además, explicamos nuestras opciones de modelado, proceso de capacitación y metodología de evaluación. Publicamos las Crónicas de capacitación (Apéndice C) que detallan nuestra experiencia en la capacitación de BloombergGPT. (11)

Este modelo de lenguaje grande inspirado en ChatGPT habla finanzas con fluidez: Mark Dredze, profesor asociado de informática en la Escuela de Ingeniería Whiting de la Universidad Johns Hopkins e investigador visitante en Bloomberg, formó parte del equipo que creó [bloombergGPT]. Dredze también es el director inaugural de investigación (Fundamentos de IA) en la nueva AI-X Foundry en Johns Hopkins. The Hub habló con Dredze sobre BloombergGPT y sus implicaciones más amplias para la investigación de IA en Johns Hopkins.

¿Cuáles eran los objetivos del proyecto BloombergGPT?

Mucha gente ha visto ChatGPT y otros grandes modelos de lenguaje, que son nuevas e impresionantes tecnologías de inteligencia artificial con enormes capacidades para procesar el lenguaje y responder a las solicitudes de las personas. El potencial de estos modelos para transformar la sociedad es claro. Hasta la fecha, la mayoría de los modelos se centran en casos de uso de propósito general. Sin embargo, también necesitamos modelos específicos de dominio que comprendan las complejidades y los matices de un dominio en particular. Si bien ChatGPT es impresionante para muchos usos, necesitamos modelos especializados para la medicina, la ciencia y muchos otros dominios. No está claro cuál es la mejor estrategia para construir estos modelos.

En colaboración con Bloomberg, exploramos esta pregunta mediante la construcción de un modelo en inglés para el dominio financiero. Tomamos un enfoque novedoso y construimos un conjunto de datos masivo de texto relacionado con finanzas y lo combinamos con un conjunto de datos igualmente grande de texto de propósito general. El conjunto de datos resultante fue de aproximadamente 700 mil millones de tokens, que es aproximadamente 30 veces el tamaño de todo el texto en Wikipedia.

Entrenamos un nuevo modelo en este conjunto de datos combinados y lo probamos en una variedad de tareas lingüísticas en documentos financieros. Descubrimos que BloombergGPT supera, ¡por amplios márgenes!, a los modelos existentes de tamaño similar en tareas financieras. Sorprendentemente, el modelo todavía se desempeñó a la par en los puntos de referencia de propósito general, a pesar de que nuestro objetivo era construir un modelo específico de dominio.

¿Por qué las finanzas necesitan su propio modelo de lenguaje?

Si bien los avances recientes en los modelos de IA han demostrado aplicaciones nuevas e interesantes para muchos dominios, la complejidad y la terminología única del dominio financiero justifican un modelo de dominio específico. No es diferente a otros dominios especializados, como la medicina, que contienen vocabulario que no ves en un texto de propósito general. Un modelo específico de finanzas podrá mejorar las tareas de PNL financieras existentes, como el análisis de sentimientos, el reconocimiento de entidades nombradas, la clasificación de noticias y la respuesta a preguntas, entre otras. Sin embargo, también esperamos que los modelos específicos de dominio desbloqueen nuevas oportunidades.

Por ejemplo, imaginamos a BloombergGPT transformando las consultas en lenguaje natural de los profesionales financieros en un lenguaje de consulta válido de Bloomberg, o BQL, una herramienta increíblemente poderosa que permite a los profesionales financieros identificar e interactuar rápidamente con datos sobre diferentes clases de valores. Entonces, si el usuario pregunta: "Consígame el último precio y capitalización de mercado de Apple", el sistema devolverá get(px_last,cur_mkt_cap) for(['AAPL US Equity']). Esta cadena de código les permitirá importar los datos resultantes de forma rápida y sencilla a las herramientas de gestión de carteras y ciencia de datos.

¿Qué aprendiste mientras construías el nuevo modelo?

Construir estos modelos no es fácil, y hay una gran cantidad de detalles que necesita para hacerlo bien para que funcionen. Aprendimos mucho leyendo artículos de otros grupos de investigación que construyeron modelos de lenguaje. Para contribuir a la comunidad, escribimos un documento con más de 70 páginas que detalla cómo construimos nuestro conjunto de datos, las opciones que se incluyeron en la arquitectura del modelo, cómo entrenamos el modelo y una evaluación exhaustiva del modelo resultante. También publicamos "crónicas de entrenamiento" detalladas que contienen una descripción narrativa del proceso de entrenamiento del modelo. Nuestro objetivo es ser lo más abiertos posible sobre cómo construimos el modelo para apoyar a otros grupos de investigación que puedan estar buscando construir sus propios modelos. (12)

Auto-GPT, abreviatura de Transformador preentrenado generativo automático, es un enfoque automatizado para entrenar y optimizar el modelo GPT (Transformador preentrenado generativo). GPT es un modelo de lenguaje altamente avanzado desarrollado por OpenAI que sobresale en la generación de texto coherente y contextualmente relevante. Auto-GPT lleva este modelo más allá al automatizar el proceso de ajuste y mejorar su rendimiento.

El objetivo principal de auto-GPT es mejorar la eficiencia y eficacia del modelo GPT a través de técnicas automatizadas. Lo logra empleando métodos como la búsqueda de arquitectura neuronal (NAS) y el aprendizaje por refuerzo (RL).

El proceso de auto-GPT implica varios pasos:

Al automatizar el proceso de capacitación y optimización, GPT automático acelera la experimentación y la optimización, lo que conduce a un rendimiento mejorado del modelo GPT en tareas específicas de procesamiento de lenguaje natural (NLP). Elimina gran parte del esfuerzo manual y las conjeturas involucradas en encontrar las configuraciones óptimas del modelo, lo que lo convierte en una herramienta valiosa para los investigadores y desarrolladores que trabajan con tareas de comprensión y generación de lenguaje.

FrugalGPT es un enfoque que tiene como objetivo reducir los requisitos computacionales y el consumo de recursos del modelo GPT (Transformador preentrenado generativo) manteniendo un nivel razonable de rendimiento. Aquí hay una descripción general de cómo funciona FrugalGPT:

Las técnicas y enfoques específicos utilizados en FrugalGPT pueden variar, y diferentes implementaciones pueden emplear métodos adicionales para lograr la eficiencia computacional. El objetivo es encontrar un equilibrio entre el tamaño del modelo, los requisitos computacionales y el rendimiento, lo que permite la implementación de modelos basados ​​en GPT en entornos con recursos limitados. Es importante tener en cuenta que mi conocimiento se basa en información disponible hasta septiembre de 2021, y es posible que haya habido más desarrollos o avances relacionados con FrugalGPT desde entonces.

A partir de mi corte de conocimiento en septiembre de 2021, se sabe que JP Morgan Chase es una de las principales instituciones financieras que ha estado invirtiendo activamente e implementando tecnologías de inteligencia artificial (IA) y aprendizaje automático (ML) dentro del sector de servicios financieros. Si bien no puedo proporcionar actualizaciones en tiempo real, puedo brindar una descripción general de algunas de las iniciativas notables de JP Morgan hasta ese momento:

Es importante tener en cuenta que el sector de los servicios financieros está en constante evolución y es probable que surjan nuevos desarrollos en IA y ML. Para obtener la información más actualizada y completa sobre las implementaciones de IA y ML de JP Morgan, se recomienda consultar las últimas publicaciones e informes.

Crowdstrike es reconocido como líder en la industria de la tecnología, particularmente en el campo de la ciberseguridad. Si bien no se enfoca específicamente en el sector de tecnología, medios y telecomunicaciones (TMT), Crowdstrike ha logrado avances significativos en la aplicación de inteligencia artificial (IA) y aprendizaje automático (ML) para fines de ciberseguridad. Estas son algunas de las razones por las que Crowdstrike se considera un jugador destacado en la implementación de IA y ML para la ciberseguridad:

Si bien el enfoque principal de Crowdstrike es la ciberseguridad, su enfoque impulsado por IA y ML ha obtenido reconocimiento y ha posicionado a la empresa como líder en la industria. Es importante tener en cuenta que el sector TMT abarca una amplia gama de empresas y aplicaciones, y puede haber otros jugadores en el sector que aprovechen la IA y el ML de diferentes maneras. Evaluar el liderazgo en la implementación de IA y ML dentro del sector TMT puede requerir considerar subindustrias específicas o casos de uso dentro del sector más amplio.

Sí, Crowdstrike es ampliamente reconocido como líder en el uso de inteligencia artificial (IA) y aprendizaje automático (ML) en el campo de la ciberseguridad. El enfoque de Crowdstrike implica aprovechar las tecnologías de IA y ML para detectar y responder a las amenazas cibernéticas de manera más efectiva. Estas son algunas de las razones por las que Crowdstrike se considera líder en este dominio:

El uso innovador de IA y ML en la ciberseguridad de Crowdstrike les ha valido reconocimiento y liderazgo en el mercado. Sin embargo, es importante tener en cuenta que el panorama de la ciberseguridad es dinámico y que otras empresas en el campo también pueden emplear tecnologías de inteligencia artificial y aprendizaje automático en diversos grados. Evaluar el liderazgo en este espacio puede implicar considerar múltiples factores y evaluaciones de la industria.

Notion y Slack son herramientas de productividad populares que sirven para diferentes propósitos y ofrecen características distintas. Aquí hay una comparación de sus características clave:

Noción:

Flojo:

En resumen, Notion es conocido por su versatilidad en la toma de notas, la documentación y la gestión del conocimiento, mientras que Slack sobresale en la comunicación y colaboración en tiempo real. Notion proporciona una plataforma completa para organizar información y gestionar tareas, mientras que Slack se centra más en la comunicación inmediata y la integración con herramientas externas. La elección entre los dos depende de las necesidades y preferencias específicas del usuario o equipo. En algunos casos, pueden complementarse entre sí, con Notion sirviendo como base de conocimiento y herramienta de documentación, mientras que Slack maneja la comunicación en tiempo real.

Tanto Notion como Slack incorporan elementos de inteligencia artificial (AI) en sus plataformas, pero su uso de AI difiere en enfoque y aplicación. Aquí hay una comparación de cómo se utiliza la IA en Notion y Slack:

Noción:

Flojo:

En términos de utilización de IA, Notion se enfoca en proporcionar sugerencias de contenido impulsadas por IA, ayudar en la organización de la base de conocimientos y automatizar la extracción de datos. Slack, por otro lado, enfatiza la integración de IA a través de chatbots, búsqueda inteligente y notificaciones inteligentes.

Es importante tener en cuenta que la profundidad y el alcance de la integración de la IA pueden variar con el tiempo, ya que ambas plataformas continúan evolucionando e introduciendo nuevas funciones. Evaluar qué plataforma tiene un mejor uso de la IA depende en última instancia de los casos de uso específicos y las preferencias individuales.

Código fuente: Acerca de: Código fuente: Acerca de: Imagen Fuente: Código fuente: Acerca de: Disponible en: Acerca de: Disponible en: Acerca de: Código fuente: Acerca de: Disponible en: Acerca de: Disponible en: Acerca de: Tabla 1. ¿Cuáles fueron los objetivos? del proyecto BloombergGPT? ¿Por qué las finanzas necesitan su propio modelo de lenguaje? ¿Qué aprendiste mientras construías el nuevo modelo? "¿Cómo funciona autoGPT?" Formulación de problemas Arquitectura Búsqueda Evaluación y selección Aprendizaje por refuerzo Iteración y optimización Ajuste fino ¿Cómo funciona FrugalGPT? Compresión de modelos Destilación de conocimiento Modificaciones arquitectónicas Poda y escasez Inferencia eficiente "¿Cómo lidera JP Morgan en el sector de servicios financieros en implementaciones de inteligencia artificial y aprendizaje automático?" Investigación cuantitativa y detección y prevención de fraude comercial Atención al cliente y chatbots Evaluación de riesgos y cumplimiento Análisis de datos y toma de decisiones "¿Crowdstrike es líder en el sector de tecnología, medios y telecomunicaciones en la implementación de inteligencia artificial y aprendizaje automático?" Detección de amenazas impulsada por IA Análisis de comportamiento Protección de endpoint Inteligencia de amenazas ¿Crowdstrike es líder en el uso de IA y aprendizaje automático en ciberseguridad? Detección de amenazas impulsada por IA Análisis de comportamiento Protección de endpoints Inteligencia de amenazas Modelos de aprendizaje automático ¿Cómo se comparan Notion y Slack como herramientas de productividad? Notion: Toma de notas y documentación: Personalización y flexibilidad: Gestión de tareas y proyectos: Base de conocimiento interna: Slack: Comunicación en tiempo real: Organización basada en canales: Integraciones y automatización: Búsqueda y archivo: Cuál tiene un mejor uso de la inteligencia artificial, Notion o holgura? Noción: Sugerencias de contenido inteligente: Organización de la base de conocimientos: Extracción de datos: Slack: Integraciones de bots: Búsqueda inteligente: Notificaciones inteligentes y priorización:
COMPARTIR