{"id":626,"date":"2022-09-20T15:39:06","date_gmt":"2022-09-20T20:39:06","guid":{"rendered":"http:\/\/ciencianews.in\/?p=626"},"modified":"2022-09-20T15:39:07","modified_gmt":"2022-09-20T20:39:07","slug":"nvidia-avanza-en-la-inteligencia-artificial-y-la-biologia-digital-con-nuevo-servicio-de-cloud","status":"publish","type":"post","link":"https:\/\/ciencianews.in\/index.php\/2022\/09\/20\/nvidia-avanza-en-la-inteligencia-artificial-y-la-biologia-digital-con-nuevo-servicio-de-cloud\/","title":{"rendered":"NVIDIA avanza en la Inteligencia Artificial y la Biolog\u00eda Digital con nuevo servicio de Cloud"},"content":{"rendered":"\n<p><strong>SANTA CLARA, Calif.\u2014GTC\u201420 de septiembre de 2022\u2014<\/strong>El d\u00eda de hoy, NVIDIA present\u00f3 dos nuevos servicios de IA de cloud para modelos de idiomas grandes: el <a href=\"https:\/\/www.nvidia.com\/en-us\/gpu-cloud\/nemo-llm-service\/\">Servicio NVIDIA NeMo <\/a><a href=\"https:\/\/www.nvidia.com\/en-us\/gpu-cloud\/nemo-llm-service\/\">Large Language Model<\/a> y el <a href=\"https:\/\/www.nvidia.com\/en-us\/gpu-cloud\/bionemo\/\">Servicio N<\/a><a href=\"https:\/\/www.nvidia.com\/en-us\/gpu-cloud\/bionemo\/\">VIDIA BioNeMo LLM<\/a>, que permiten a los desarrolladores adaptar f\u00e1cilmente los LLM e implementar aplicaciones de IA personalizadas para la generaci\u00f3n de contenido, resumen de texto, chatbots, desarrollo de c\u00f3digo, as\u00ed como estructura de prote\u00ednas y predicciones de propiedades biomoleculares, y m\u00e1s.<strong><\/strong><\/p>\n\n\n\n<p>El Servicio NeMo LLM permite a los desarrolladores adaptar r\u00e1pidamente una serie de modelos de fundaci\u00f3n previamente entrenados utilizando un m\u00e9todo de entrenamiento llamado <a href=\"https:\/\/docs.nvidia.com\/deeplearning\/nemo\/user-guide\/docs\/en\/main\/nlp\/nemo_megatron\/prompt_learning.html\">aprendizaje r\u00e1pido<\/a> en la infraestructura administrada por NVIDIA. El Servicio NVIDIA BioNeMo es una Interfaz de programaci\u00f3n de aplicaciones (API) de cloud que expande los casos de uso de LLM m\u00e1s all\u00e1 del idioma y en aplicaciones cient\u00edficas para acelerar el descubrimiento de f\u00e1rmacos para las empresas farmac\u00e9uticas y biotecnol\u00f3gicas.<\/p>\n\n\n\n<p>\u00abLos grandes modelos de idiomas tienen el potencial de transformar todas las industrias\u00bb, dijo Jensen Huang, fundador y CEO de NVIDIA. \u00abLa capacidad de ajustar los modelos de base pone el poder de los LLM al alcance de millones de desarrolladores que ahora pueden crear servicios de idiomas y potenciar los descubrimientos cient\u00edficos sin necesidad de crear un enorme modelo desde cero\u00bb.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>NeMo LLM aumenta la precisi\u00f3n del aprendizaje con instrucciones y acelera las implementaciones<\/strong><\/h2>\n\n\n\n<p>Con el Servicio NeMo LLM, los desarrolladores pueden usar sus propios datos de entrenamiento para personalizar modelos de base que van desde 3,000\u00a0millones de par\u00e1metros, hasta Megatron 530B, uno de los LLM m\u00e1s grandes del mundo. El proceso toma unos pocos minutos a horas en comparaci\u00f3n con las semanas o meses que se necesitan para entrenar un modelo desde cero.<\/p>\n\n\n\n<p>Los modelos se personalizan con aprendizaje r\u00e1pido, que utiliza una t\u00e9cnica llamada p-tuning. Esto permite a los desarrolladores usar solo unos cientos de ejemplos para adaptar r\u00e1pidamente los modelos de base que originalmente se entrenaron con miles de millones de puntos de datos. El proceso de personalizaci\u00f3n genera tokens de prompt espec\u00edficos de la tarea, que luego se combinan con los modelos de base para ofrecer una mayor precisi\u00f3n y respuestas m\u00e1s relevantes para casos de uso espec\u00edficos.<strong><\/strong><\/p>\n\n\n\n<p>Los desarrolladores pueden personalizar para varios casos de uso con el mismo modelo y generar muchos tokens de prompt diferentes. Una funci\u00f3n de \u00e1rea de pruebas proporciona una opci\u00f3n sin c\u00f3digo para experimentar e interactuar f\u00e1cilmente con los modelos, lo que aumenta a\u00fan m\u00e1s la eficacia y la accesibilidad de los LLM para casos de uso espec\u00edficos de la industria.<strong><\/strong><\/p>\n\n\n\n<p>Una vez que est\u00e1n listos para implementarse, los modelos ajustados se pueden ejecutar en instancias de cloud, en sistemas locales o a trav\u00e9s de una API.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>BioNeMo LLM permite a los investigadores aprovechar el poder de los grandes modelos<\/strong><\/h2>\n\n\n\n<p>El <a href=\"https:\/\/blogs.nvidia.com\/blog\/2022\/09\/20\/bionemo-large-language-models-drug-discovery\/\">Servicio BioNeMo LLM<\/a> incluye dos nuevos modelos de Idiomas BioNeMo para aplicaciones de qu\u00edmica y biolog\u00eda. Proporciona soporte para datos de prote\u00ednas, ADN y bioqu\u00edmica para ayudar a los investigadores a descubrir patrones y conocimientos en secuencias biol\u00f3gicas.<\/p>\n\n\n\n<p>BioNeMo permite a los investigadores ampliar el alcance de su trabajo aprovechando modelos que contienen miles de millones de par\u00e1metros. Estos modelos m\u00e1s grandes pueden almacenar m\u00e1s informaci\u00f3n sobre la estructura de las prote\u00ednas, las relaciones evolutivas entre los genes e incluso generar nuevas biomol\u00e9culas para aplicaciones terap\u00e9uticas.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>La API de Cl da acceso a modelos Megatron 530B y m\u00e1s, listos para usar<\/strong><\/h2>\n\n\n\n<p>Adem\u00e1s de ajustar los modelos de base, los servicios de LLM incluyen la opci\u00f3n de usar modelos personalizados y listos para usar a trav\u00e9s de una API de cloud. <\/p>\n\n\n\n<p>Esto les da a los desarrolladores acceso a una amplia gama de LLM previamente entrenados, incluido uno de los m\u00e1s grandes del mundo, Megatron 530B, con 530,000 millones de par\u00e1metros. Tambi\u00e9n proporciona acceso a modelos T5 y GPT-3 creados con el <a href=\"https:\/\/developer.nvidia.com\/blog\/?search_posts_filter=NeMo+Megatron\">framework NVIDIA NeMo Megatron<\/a> , ahora disponible en versi\u00f3n beta abierta, para admitir una amplia gama de aplicaciones y requisitos de servicio multiling\u00fces.<\/p>\n\n\n\n<p>Los l\u00edderes en las industrias automotriz, de computaci\u00f3n, educaci\u00f3n, atenci\u00f3n de la salud, telecomunicaciones y otras est\u00e1n usando NeMo Megatron para ofrecer servicios pioneros a clientes en chino, ingl\u00e9s, coreano, sueco y otros idiomas.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Disponibilidad<\/strong><\/h2>\n\n\n\n<p>Se espera que los servicios neMo LLM y BioNeMo y las API de cloud est\u00e9n disponibles en acceso anticipado a partir del pr\u00f3ximo mes. Los desarrolladores pueden solicitarlos ahora para obtener m\u00e1s detalles.<\/p>\n\n\n\n<p>La versi\u00f3n beta del framework NeMo Megatron est\u00e1 disponible mediante <a href=\"https:\/\/www.nvidia.com\/en-us\/gpu-cloud\/\">NVIDIA NGC<\/a>\u2122 y est\u00e1 optimizada para ejecutarse en <a href=\"https:\/\/www.nvidia.com\/en-us\/data-center\/dgx-foundry\/\">NVIDIA <\/a><a href=\"https:\/\/www.nvidia.com\/en-us\/data-center\/dgx-foundry\/\">DGX\u2122 Foundry<\/a> y <a href=\"https:\/\/www.nvidia.com\/en-us\/data-center\/dgx-superpod\/\">NVIDIA DGX SuperPOD<\/a>\u2122, as\u00ed como instancias de cloud aceleradas de Amazon Web Services, Microsoft Azure y <a href=\"https:\/\/blogs.oracle.com\/cloud-infrastructure\/post\/oracle-partners-with-nvidia-to-solve-the-largest-ai-and-nlp-models\">Oracle Cloud Infrastructure<\/a>. <strong><\/strong><\/p>\n\n\n\n<p>Para experimentar el framework NeMo Megatron, los desarrolladores pueden probar los laboratorios de <a href=\"https:\/\/www.nvidia.com\/en-us\/launchpad\/ai\/train-a-large-scale-nlp-model-with-nemo-megatron\/\">NVIDIA LaunchPad<\/a> sin costo alguno.<strong><\/strong><\/p>\n\n\n\n<p>Escucha el <a href=\"https:\/\/youtu.be\/PWcNlRI00jo?t=4128\">discurso destacado de Huang en GTC<\/a> para obtener m\u00e1s informaci\u00f3n sobre los grandes modelos de idiomas impulsados por la IA de NVIDIA. <br>&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;-<br>Contacto: <a href=\"mailto:samcarbajalreportera@gmail.com\">samcarbajalreportera@gmail.com<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>SANTA CLARA, Calif.\u2014GTC\u201420 de septiembre de 2022\u2014El d\u00eda de hoy, NVIDIA present\u00f3 dos nuevos servicios de IA de cloud para modelos de idiomas grandes: el Servicio NVIDIA NeMo Large Language Model y el Servicio NVIDIA BioNeMo LLM, que permiten a los desarrolladores adaptar f\u00e1cilmente los LLM e implementar aplicaciones de IA personalizadas para la generaci\u00f3n [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-626","post","type-post","status-publish","format-standard","hentry","category-noticia"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/posts\/626","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/comments?post=626"}],"version-history":[{"count":1,"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/posts\/626\/revisions"}],"predecessor-version":[{"id":627,"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/posts\/626\/revisions\/627"}],"wp:attachment":[{"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/media?parent=626"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/categories?post=626"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ciencianews.in\/index.php\/wp-json\/wp\/v2\/tags?post=626"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}