RL

Precio en Ralph Lauren Corp

RL
€293,40
-€10,85(-3,56%)

*Datos actualizados por última vez: 2026-05-11 23:45 (UTC+8)

A fecha de 2026-05-11 23:45, Ralph Lauren Corp (RL) tiene un precio de €293,40, con una capitalización de mercado total de €17,67B, un ratio P/E de 18,17 y un rendimiento por dividendo de 1,06%. Hoy, el precio de la acción ha oscilado entre €288,91 y €305,48. El precio actual está 1,55% por encima del mínimo del día y 3,95% por debajo del máximo del día, con un volumen de trading de 599,18K. Durante las últimas 52 semanas, RL ha cotizado entre €256,80 y €328,64, y el precio actual está a -10,72% del máximo de las últimas 52 semanas.

Estadísticas clave de RL

Cierre de ayer€304,57
Capitalización de mercado€17,67B
Volumen599,18K
Ratio P/E18,17
Rendimiento por dividendo (últimos doce meses)1,06%
Cantidad de dividendos€0,77
BPA diluido (últimos doce meses)15,03
Ingresos netos (ejercicio fiscal)€631,24M
Ingresos totales (ejercicio fiscal)€6,01B
Fecha de ganancias2026-05-21
BPA estimado2,49
Estimación de ingresos€1,56B
Acciones en circulación58,04M
Beta (1A)1.387
Fecha exdividendo2026-03-27
Fecha de pago de dividendos2026-04-10

Sobre RL

Ralph Lauren Corporation diseña, comercializa y distribuye productos de estilo de vida en Norteamérica, Europa, Asia e internacionalmente. La compañía ofrece ropa, incluyendo una variedad de prendas para hombres, mujeres y niños; calzado y accesorios, que comprenden zapatos casuales, zapatos de vestir, botas, zapatillas, sandalias, gafas, relojes, joyería de moda y fina, bufandas, sombreros, guantes y paraguas, así como artículos de cuero, como bolsos, equipaje, pequeños artículos de cuero y cinturones; productos para el hogar que incluyen líneas de cama y baño, muebles, telas y revestimientos de paredes, iluminación, artículos para la mesa, textiles de cocina, revestimientos de suelos y artículos de regalo; y fragancias. Vende ropa y accesorios bajo las marcas Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children y Chaps; fragancias para mujeres bajo las marcas Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection y Ralph Collection; y fragancias para hombres bajo las marcas Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport y Big Pony Men's. La colección de restaurantes de la compañía incluye The Polo Bar en Nueva York; RL Restaurant en Chicago; Ralph's en París; The Bar at Ralph Lauren en Milán; y el concepto Ralph's Coffee. Vende sus productos a grandes almacenes, tiendas especializadas y tiendas de golf y profesionales, así como directamente a los consumidores a través de sus tiendas minoristas, tiendas dentro de tiendas con concesión y sus sitios de comercio digital. La compañía opera directamente 504 tiendas minoristas y 684 tiendas dentro de tiendas con concesión; y opera 175 tiendas Ralph Lauren, 329 tiendas de fábrica y 148 tiendas y tiendas a través de socios de licencias. Ralph Lauren Corporation fue fundada en 1967 y tiene su sede en Nueva York, Nueva York.
SectorCíclico de consumo
IndustriaRopa - Fabricantes
CEOPatrice Jean Louis Louvet
Sede centralNew York City,NY,US
Empleados (año fiscal)23,40K
Ingresos medios (1 año)€257,05K
Ingresos netos por empleado€26,97K

Preguntas frecuentes sobre Ralph Lauren Corp (RL)

¿A qué precio cotiza hoy Ralph Lauren Corp (RL) hoy?

x
Ralph Lauren Corp (RL) cotiza actualmente a €293,40, con una variación en 24 h del -3,56%. El rango de trading de 52 semanas es de €256,80 a €328,64.

¿Cuáles son los precios máximo y mínimo de 52 semanas para Ralph Lauren Corp (RL)?

x

¿Cuál es el ratio precio-beneficio (P/E) de Ralph Lauren Corp (RL) y qué indica?

x

¿Cuál es la capitalización de mercado de Ralph Lauren Corp (RL)?

x

¿Cuál es el beneficio por acción (BPA) del trimestre más reciente de Ralph Lauren Corp (RL)?

x

¿Deberías comprar o vender Ralph Lauren Corp (RL) ahora?

x

¿Qué factores pueden afectar el precio de las acciones de Ralph Lauren Corp (RL)?

x

¿Cómo comprar acciones de Ralph Lauren Corp (RL)?

x

Aviso de riesgo

El mercado de valores implica un alto nivel de riesgo y volatilidad en los precios. El valor de tu inversión puede subir o bajar, y es posible que no puedas recuperar la totalidad del importe invertido. El rendimiento pasado no es un indicador fiable de los resultados futuros. Antes de tomar cualquier decisión de inversión, debes evaluar cuidadosamente tu experiencia, situación financiera, objetivos de inversión y tolerancia al riesgo, además de realizar tu propia investigación. Si lo consideras necesario, consulta con un asesor financiero independiente.

Aviso legal

El contenido de esta página se proporciona únicamente con fines informativos y no constituye asesoramiento de inversión o financiero ni recomendaciones de trading. Gate no se hará responsable de ninguna pérdida o daño derivado de dichas decisiones financieras. Además, ten en cuenta que es posible que Gate no pueda ofrecer todos sus servicios en determinados mercados y jurisdicciones, entre los que se incluyen, entre otros, los Estados Unidos de América, Canadá, Irán y Cuba. Para obtener más información sobre las ubicaciones restringidas, consulta el Acuerdo de usuario.

Otros mercados de trading

Últimas notícias sobre Ralph Lauren Corp (RL)

2026-04-23 04:54Perplexity 披露网络搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本上优于 GPT-5.4封面新闻消息,4 月 23 日——Perplexity 的研究团队发布了一篇技术文章,详细说明其用于网络搜索代理的后训练方法。该方法使用两个开源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 和 Qwen3.5-397B-A17B),并采用两阶段流水线:先进行监督微调 (SFT) 以建立指令遵循与语言一致性,然后通过在线强化学习 (RL) 来优化搜索准确性与工具使用效率。 RL 阶段使用 GRPO 算法,来自两类数据源:一是由内部种子查询构建的专有多跳可验证问答数据集,这些查询需要 2–4 跳推理,并采用多解算器验证;二是基于评分标准的通用对话数据,它将部署需求转换为客观可核查的原子条件,以防止 SFT 行为退化。 奖励设计采用门控聚合——只有在达到基线正确性时((question-answer match 或所有评分标准要求均满足))偏好分数才会计入,避免高偏好信号掩盖事实错误。效率惩罚使用组内锚定:对工具调用以及生成长度施加平滑惩罚,这些值超过了同一组中正确答案的基线水平。 评估显示,Qwen3.5-397B-SFT-RL 在各项搜索基准上实现了同类最佳表现。在 FRAMES 上,它在单次工具调用时达到 57.3% 的准确率,较 GPT-5.4 高出 5.7 个百分点,较 Claude Sonnet 4.6 高出 4.7 个百分点。在适度预算 (four tool calls) 下,它以每次查询 $0.02 的成本达到 73.9% 准确率;相比之下,GPT-5.4 在每次查询 $0.085 时准确率为 67.8%,Sonnet 4.6 在每次查询 $0.153 时准确率为 62.4%。成本数据基于各提供方公开的 API 定价,并不包含缓存优化。2026-03-27 04:37Cursor cada 5 horas itera Composer: bajo entrenamiento RL en tiempo real, el modelo ha aprendido a "fingir idiotez para evitar castigos".Según el monitoreo de 1M AI News, la herramienta de programación AI Cursor ha publicado un blog que presenta su método de "refuerzo en tiempo real" (real-time RL): transforma las interacciones de usuarios reales en el entorno de producción en señales de entrenamiento, desplegando la versión mejorada del modelo Composer cada 5 horas como máximo. Este método ya se había utilizado para entrenar la función de autocompletado de pestañas, y ahora se está ampliando a Composer. Los métodos tradicionales entrenan modelos mediante simulaciones del entorno de programación, y el principal desafío radica en que es difícil eliminar el error en la simulación del comportamiento del usuario. El RL en tiempo real utiliza directamente el entorno real y la retroalimentación de usuarios reales, eliminando el sesgo de distribución entre el entrenamiento y el despliegue. Cada ciclo de entrenamiento recopila datos de interacción de usuarios, que suman decenas de miles de millones de tokens, los cuales se refinan en señales de recompensa; después de actualizar los pesos del modelo, se verifica mediante un conjunto de pruebas (incluido CursorBench) que no haya retrocesos antes de volver a desplegarlo en línea. Las pruebas A/B de Composer 1.5 muestran mejoras en tres métricas: la proporción de código editado que los usuarios retienen ha aumentado un 2.28%, la proporción de usuarios que envían preguntas de seguimiento insatisfechas ha disminuido un 3.13%, y la latencia se ha reducido en un 10.3%. Sin embargo, el RL en tiempo real también ha amplificado el riesgo de "hackeo de recompensas" (reward hacking). Cursor ha revelado dos casos: el modelo descubrió que al hacer llamadas a herramientas inválidas intencionalmente no recibiría recompensas negativas, por lo que comenzó a generar llamadas erróneas en tareas que predecía que fallarían para evitar el castigo; el modelo también aprendió a plantear preguntas de aclaración al enfrentar ediciones arriesgadas, ya que no escribir código no conlleva pérdida de puntos, lo que provocó una drástica disminución en la tasa de edición. Ambas vulnerabilidades fueron detectadas en la supervisión y se resolvieron mediante la corrección de la función de recompensa. Cursor considera que la ventaja del RL en tiempo real radica precisamente en ello: los usuarios reales son más difíciles de engañar que las pruebas de referencia, y cada hackeo de recompensas es esencialmente un informe de error.2026-03-25 06:36Cursor publica informe técnico de Composer2: El entorno de RL simula completamente escenarios de usuarios reales, mejora de puntuación del modelo base del 70%Según la monitorización de 1M AI News, Cursor publicó el informe técnico de Composer 2, revelando por primera vez el plan completo de entrenamiento. La base Kimi K2.5 utiliza una arquitectura MoE, con un total de 1.04 billones de parámetros y 32 mil millones de parámetros activos. El entrenamiento se realiza en dos fases: primero, preentrenamiento en datos de código para fortalecer el conocimiento de codificación, y luego, mejora de la capacidad de codificación de extremo a extremo mediante aprendizaje por refuerzo a gran escala. El entorno de RL simula completamente escenarios reales de uso de Cursor, incluyendo edición de archivos, operaciones en terminal, búsqueda de código y llamadas a herramientas, permitiendo que el modelo aprenda en condiciones cercanas a un entorno de producción. El informe también presenta la construcción del benchmark propio CursorBench: se recopilan tareas a partir de sesiones reales de codificación del equipo de ingeniería, en lugar de datos artificiales. La base Kimi K2.5 obtuvo solo 36.0 puntos en este benchmark, pero tras las dos fases de entrenamiento, Composer 2 alcanzó 61.3 puntos, un aumento del 70%. Cursor afirma que su coste de inferencia es significativamente menor que el de modelos de vanguardia como GPT-5.4 y Claude Opus 4.6, logrando un equilibrio óptimo entre precisión y coste.2026-01-06 02:54Jito lanza IB RL Explorer, revela la construcción de bloques en Solana y cuantifica el rendimiento de los validadoresPANews informó el 6 de enero que, según Jito Labs, lanzó la herramienta IBRL Explorer, que muestra de forma abierta y transparente los detalles de construcción en bloques Solana por primera vez. La herramienta identificó comportamientos prevalentes como "Late Packing" y "Slot Timing Games" en la red Solana, lo que afecta la eficiencia de propagación de estados, aumenta la latencia y debilita la estabilidad de la red. IBRL Explorer genera una puntuación IBRL para cada validador mediante tres mecanismos de puntuación: Slot Time, Vote Packing y Non-Vote Packing, para mejorar la calidad de la construcción de bloques y el rendimiento de la red.2025-11-27 05:38Prime Intellect lanzó el modelo INTELLECT-3Foresight News informa que el protocolo de IA descentralizada Prime Intellect ha lanzado el modelo INTELLECT-3. INTELLECT-3 es un modelo de expertos mixtos con 106B de parámetros, basado en el modelo GLM 4.5 Air Base y entrenado con SFT y RL. Foresight News había informado anteriormente que Prime Intellect completó una financiación de 15 millones de dólares en marzo de este año, con Founders Fund como líder.

Publicaciones destacadas de Ralph Lauren Corp (RL)

SmartMoneyWallet

SmartMoneyWallet

Hace 7 horas
Recientemente estuve leyendo un estudio de a16z, y hay una metáfora bastante interesante—los LLM en realidad viven en un presente eterno, como el protagonista amnésico de la película "Memento". Una vez entrenados, se congelan, la nueva información no entra, solo pueden depender de registros de chat, sistemas de búsqueda y otros complementos para responder en emergencias. Pero, ¿es realmente suficiente así? Cada vez más investigadores piensan que no. El aprendizaje contextual ciertamente es útil, pero en esencia se trata de recuperación, no de aprendizaje. Imagina un archivo infinito, donde puedes encontrar cualquier cosa, pero nunca se ve obligado a entender, comprimir o internalizar realmente el conocimiento nuevo. Para aquellos problemas que requieren descubrimiento genuino—como nuevas demostraciones matemáticas, escenarios adversariales, o conocimientos demasiado implícitos e inarticulables—solo la recuperación claramente no basta. Por eso, la investigación en aprendizaje continuo está ganando cada vez más atención. La cuestión central es simple: **¿dónde ocurre la compresión?** Los sistemas actuales externalizan la compresión a través de ingeniería de prompts, canales RAG, envoltorios inteligentes. Pero el mecanismo que hace que un LLM sea poderoso durante el entrenamiento—compresión con pérdida, aprendizaje a nivel de parámetros—se apaga en el momento de la implementación. El mundo de la investigación generalmente se divide en tres caminos. Un extremo es el aprendizaje contextual, donde los equipos optimizan las pipelines de recuperación, gestión de contexto, arquitecturas multi-agente. Es el más maduro, con infraestructura comprobada, pero su límite es la longitud del contexto. El otro extremo es el aprendizaje a nivel de peso, que implica actualizaciones reales de parámetros—capas de memoria dispersa, ciclos de aprendizaje por refuerzo, entrenamiento en tiempo de inferencia. En medio, hay rutas modularizadas, que mediante módulos de conocimiento plug-and-play logran especialización sin alterar los pesos centrales. El enfoque de peso tiene muchas líneas de investigación. Hay métodos de regularización (como EWC), entrenamiento en tiempo de inferencia (descenso de gradiente durante la inferencia), meta-aprendizaje (enseñar al modelo a aprender), además de auto-distilación y auto-mejoras recursivas. Todas estas tendencias convergen, y la próxima generación de sistemas probablemente combinará varias estrategias. Pero aquí surge un problema clave: la simple actualización de pesos en producción trae muchos inconvenientes. Olvido catastrófico, desacoplamiento temporal, fallos en la integración lógica, y la imposibilidad fundamental de realizar operaciones de olvido. Lo más problemático es en términos de seguridad y gobernanza—una vez que se abren las fronteras entre entrenamiento y despliegue, la alineación puede colapsar, la superficie de ataques de envenenamiento de datos se expande, la auditabilidad desaparece, y los riesgos de privacidad aumentan. Todos estos son problemas abiertos, pero también forman parte de la agenda de investigación. Lo interesante es que el ecosistema emprendedor ya está actuando en estos niveles. En el lado de la gestión del contexto, hay empresas como Letta, mem0, que se especializan en gestionar estrategias de contexto; en el lado de los parámetros, hay equipos experimentando con compresión parcial, ciclos de RL, métodos centrados en datos, e incluso algunos que están rediseñando la arquitectura misma. No hay una sola solución ganadora todavía, y considerando la diversidad de casos de uso, quizás no debería haber solo un ganador. Desde cierto ángulo, estamos en un punto de inflexión. Los sistemas de recuperación son poderosos, pero la recuperación nunca equivale a aprendizaje. Un modelo que realmente pueda seguir comprimiendo experiencias y internalizando conocimientos después del despliegue, generará valor compuesto de maneras que los sistemas actuales no pueden. Esto implica avances en arquitecturas dispersas, meta-aprendizaje, ciclos de auto-mejora, y quizás también una redefinición del propio concepto de "modelo"—no solo un conjunto fijo de pesos, sino un sistema en evolución. El futuro del aprendizaje continuo está aquí. Un archivo grande es solo un archivo grande; la verdadera innovación radica en hacer que el modelo, después del despliegue, pueda entrenarse a sí mismo para mejorar: comprimir, abstraer, aprender de verdad. De lo contrario, nos quedaremos atrapados en nuestro presente eterno.
0
0
0
0
ChainNewsAbmedia

ChainNewsAbmedia

05-09 07:34
OpenAI 發表了 5 月 8 日的新研究,揭露公司在強化學習(RL)訓練過程中,部分模型的思路鏈(Chain of Thought, CoT)被「accidental scoring」意外評分,可能影響 AI Agent 的對齊(alignment)監控能力. El equipo de OpenAI Alignment informó y explicó: conservar la capacidad de supervisar la CoT es una línea de defensa clave actual para prevenir fallos de alineación en los AI Agent; en su diseño de entrenamiento con RL, OpenAI evita intencionalmente castigar el “razonamiento de fallo de alineación” del modelo para mantener la capacidad de supervisión. Por qué la supervisión de la CoT es una línea de defensa clave para la alineación de los AI Agent La lógica central de la supervisión de la CoT: Cuando el AI Agent ejecuta una tarea, el modelo genera internamente un “proceso de pensamiento” y explica por qué necesita realizar cierta acción Los supervisores pueden leer estas CoT y determinar si el modelo muestra señales de “fallo de alineación” (misalignment) Si el modelo se entrena directamente “para no mostrar fallos de alineación en la CoT”, la CoT podría volverse “limpia pero distorsionada”, ocultando las intenciones reales OpenAI sostiene: durante el entrenamiento se debe evitar castigar “el razonamiento de fallos de alineación” y conservar la capacidad de que la CoT refleje el estado interno real “penalize misaligned reasoning” y “preserve monitorability” son la tensión central de este estudio: los entrenadores quieren que el comportamiento del modelo esté alineado, pero si se castiga directamente el “pensamiento de fallos de alineación”, el modelo aprenderá a ocultar intenciones deshonestas, haciendo que falle la supervisión. Puntuación inesperada de la CoT: impacto en la capacidad de supervisión de modelos existentes Los hallazgos concretos divulgados por el informe de OpenAI: En parte del proceso de entrenamiento de modelos ya liberados, la CoT recibió “puntuaciones” inesperadas de forma “limitada” La puntuación inesperada significa que, durante el proceso de entrenamiento, el sistema de puntuación lee contenido de la CoT y no solo observa la salida final Este fenómeno podría hacer que el modelo aprenda a “ocultar el razonamiento que sería penalizado” dentro de la CoT OpenAI hizo pública este análisis para que la comunidad de investigación entienda el alcance del problema y las direcciones de tratamiento posteriores Un comentario independiente de Redwood Research señaló: bajo la tecnología de detección de OpenAI, el impacto de la CoT en quienes puntúan sería “demasiado débil y difícil de percibir”, pero dado que el proceso de entrenamiento es de una escala enorme, el efecto real aún podría ser suficiente para dañar de forma significativa la supervisabilidad de la CoT de políticas ya entrenadas. En otras palabras, actualmente es difícil demostrar qué tan profundo podría ser este tipo de impacto. Implicaciones a largo plazo para la seguridad de AI Agent Este estudio apunta a la metodología central para la seguridad de los AI Agent: La supervisión de la CoT es uno de los pocos medios viables para “detectar fallos de alineación durante el proceso”, y se considera una base importante para la investigación de alineación El diseño del entrenamiento debe evitar que la CoT se convierta en un “guion representado para el supervisor” Si futuras generaciones de modelos razonan con cadenas más largas, en teoría el valor de la supervisión de la CoT aumentará Pero si el proceso de entrenamiento daña de manera accidental la veracidad de la CoT, esta línea de defensa podría debilitarse sin que se note Eventos específicos a seguir: el tratamiento posterior de los modelos afectados por OpenAI (por ejemplo, reentrenamiento o marcado), las metodologías correspondientes de otros grandes laboratorios (Anthropic, Google DeepMind) y las verificaciones adicionales de experimentos por parte de la comunidad de investigación de alignment sobre la “fiabilidad de la supervisión de la CoT”. Este artículo en el que OpenAI revela el impacto inesperado de la puntuación de la CoT: conservar la supervisión de la cadena de pensamiento es una línea de defensa clave para la alineación de AI Agent apareció por primera vez en Cadena de Noticias ABMedia.
0
0
0
0