RL

Ralph Lauren Corp-Preis

Closed
RL
$358,07
+$4,07(+1,14 %)

*Data last updated: 2026-05-09 08:43 (UTC+8)

As of 2026-05-09 08:43, Ralph Lauren Corp (RL) is priced at $358,07, with a total market cap of $21,73B, a P/E ratio of 18,17, and a dividend yield of 1,01 %. Today, the stock price fluctuated between $302,23 and $364,02. The current price is 18,47 % above the day's low and 1,63 % below the day's high, with a trading volume of 458,77K. Over the past 52 weeks, RL has traded between $302,23 to $386,77, and the current price is -7,42 % away from the 52-week high.

RL Key Stats

Yesterday's Close$353,55
Market Cap$21,73B
Volumen458,77K
P/E Ratio18,17
Dividend Yield (TTM)1,01 %
Dividend Amount$0,91
Diluted EPS (TTM)15,03
Net Income (FY)$742,90M
Revenue (FY)$7,07B
Earnings Date2026-05-21
EPS Estimate2,51
Revenue Estimate$1,84B
Shares Outstanding61,48M
Beta (1Y)1.387
Ex-Dividend Date2026-03-27
Dividend Payment Date2026-04-10

About RL

Ralph Lauren Corporation designs, markets, and distributes lifestyle products in North America, Europe, Asia, and internationally. The company offers apparel, including a range of men's, women's, and children's clothing; footwear and accessories, which comprise casual shoes, dress shoes, boots, sneakers, sandals, eyewear, watches, fashion and fine jewelry, scarves, hats, gloves, and umbrellas, as well as leather goods, such as handbags, luggage, small leather goods, and belts; home products consisting of bed and bath lines, furniture, fabric and wallcoverings, lighting, tabletop, kitchen linens, floor coverings, and giftware; and fragrances. It sells apparel and accessories under the Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children, and Chaps brands; women's fragrances under the Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection, and Ralph Collection brand names; and men's fragrances under the Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport, and Big Pony Men's brand names. The company's restaurant collection includes The Polo Bar in New York City; RL Restaurant in Chicago; Ralph's in Paris; The Bar at Ralph Lauren located in Milan; and Ralph's Coffee concept. It sells its products to department stores, specialty stores, and golf and pro shops, as well as directly to consumers through its retail stores, concession-based shop-within-shops, and its digital commerce sites. The company directly operates 504 retail stores and 684 concession-based shop-within-shops; and operates 175 Ralph Lauren stores, 329 factory stores, and 148 stores and shops through licensing partners. Ralph Lauren Corporation was founded in 1967 and is headquartered in New York, New York.
SectorConsumer Cyclical
IndustryApparel - Manufacturers
CEOPatrice Jean Louis Louvet
HeadquartersNew York City,NY,US
Employees (FY)23,40K
Average Revenue (1Y)$302,52K
Net Income per Employee$31,74K

Ralph Lauren Corp (RL) FAQ

What's the stock price of Ralph Lauren Corp (RL) today?

x
Ralph Lauren Corp (RL) is currently trading at $358,07, with a 24h change of +1,14 %. The 52-week trading range is $302,23–$386,77.

What are the 52-week high and low prices for Ralph Lauren Corp (RL)?

x

What is the price-to-earnings (P/E) ratio of Ralph Lauren Corp (RL)? What does it indicate?

x

What is the market cap of Ralph Lauren Corp (RL)?

x

What is the most recent quarterly earnings per share (EPS) for Ralph Lauren Corp (RL)?

x

Should you buy or sell Ralph Lauren Corp (RL) now?

x

What factors can affect the stock price of Ralph Lauren Corp (RL)?

x

How to buy Ralph Lauren Corp (RL) stock?

x

Risk Warning

The stock market involves a high level of risk and price volatility. The value of your investment may increase or decrease, and you may not recover the full amount invested. Past performance is not a reliable indicator of future results. Before making any investment decisions, you should carefully assess your investment experience, financial situation, investment objectives, and risk tolerance, and conduct your own research. Where appropriate, consult an independent financial adviser.

Disclaimer

The content on this page is provided for informational purposes only and does not constitute investment advice, financial advice, or trading recommendations. Gate shall not be held liable for any loss or damage resulting from such financial decisions. Further, take note that Gate may not be able to provide full service in certain markets and jurisdictions, including but not limited to the United States of America, Canada, Iran, and Cuba. For more information on Restricted Locations, please refer to the User Agreement.

Other Trading Markets

Ralph Lauren Corp (RL) Latest News

2026-04-23 04:54Perplexity offenbart Methode zum Post-Training von Web-Search-Agenten; auf Qwen3.5 basierendes Modell übertrifft GPT-5.4 bei Genauigkeit und KostenSendehinweis, 23. April — Das Forschungsteam von Perplexity veröffentlichte einen technischen Artikel, der seine Post-Training-Methodik für Web-Search-Agenten im Detail beschreibt. Der Ansatz nutzt zwei Open-Source-Qwen3.5-Modelle (Qwen3.5-122B-A10B und Qwen3.5-397B-A17B) und setzt auf eine Zwei-Phasen-Pipeline: Supervised Fine-Tuning (SFT), um regelkonformes Befolgen von Anweisungen und sprachliche Konsistenz zu etablieren, gefolgt von Online Reinforcement Learning (RL), um Suchgenauigkeit und Tool-Use-Effizienz zu optimieren. Die RL-Phase nutzt den GRPO-Algorithmus mit zwei Datenquellen: einen proprietären Multi-Hop-verifizierbaren Frage-Antwort-Datensatz, der aus internen Seed-Queries erstellt wurde, die 2–4 Reasoning-Hops mit Multi-Solver-Verifikation erfordern, sowie rubrikbasierte allgemeine Konversationsdaten, die die Einsatzanforderungen in objektiv prüfbare atomare Bedingungen umwandeln, um eine Degradation des SFT-Verhaltens zu verhindern. Das Reward-Design verwendet gated Aggregation — Preferences-Scores tragen nur bei, wenn die Baseline-Korrektheit erreicht ist (question-answer match oder alle Rubrik-Kriterien erfüllt), wodurch verhindert wird, dass starke Preference-Signale faktische Fehler überdecken. Effizienz-Strafen verwenden innerhalb von Gruppen verankertes Ankern: Es werden glatte Strafen für Tool-Calls und für die Generationslänge angewendet, die die Baseline der korrekten Antworten in derselben Gruppe überschreiten. Die Evaluierung zeigt, dass Qwen3.5-397B-SFT-RL eine erstklassige Performance über Such-Benchmarks hinweg erreicht. Bei FRAMES erzielt es 57,3% Genauigkeit mit einem einzelnen Tool-Call und übertrifft GPT-5.4 um 5,7 Prozentpunkte sowie Claude Sonnet 4.6 um 4,7 Prozentpunkte. Bei moderatem Budget (vier Tool-Calls) erreicht es 73,9% Genauigkeit bei $0.02 pro Query, im Vergleich zu GPT-5.4s 67,8% Genauigkeit bei $0.085 pro Query und Sonnet 4.6s 62,4% Genauigkeit bei $0.153 pro Query. Die Kostendaten basieren auf der öffentlich verfügbaren API-Preisgestaltung jedes Anbieters und schließen Caching-Optimierungen aus.2026-03-27 04:37Cursor alle 5 Stunden iteriert Composer: Unter Echtzeit-RL-Training hat das Modell gelernt, "sich dumm zu stellen, um Strafen zu vermeiden".Laut dem Monitoring von 1M AI News hat das KI-Programmier-Tool Cursor einen Blog veröffentlicht und seine Methode „Real-time Reinforcement Learning“ (real-time RL) vorgestellt: echte Nutzerinteraktionen aus der Produktionsumgebung werden in Trainingssignale umgewandelt, und innerhalb von spätestens 5 Stunden wird eine verbesserte Composer-Modellversion bereitgestellt. Zuvor wurde diese Methode bereits zum Training der Tab-Completion-Funktion genutzt und wird nun auf Composer ausgeweitet. Traditionelle Ansätze trainieren Modelle, indem sie die Programmierumgebung simulieren. Die zentrale Schwierigkeit besteht darin, dass Fehler bei der Simulation des Nutzerverhaltens kaum zu beseitigen sind. Real-time RL nutzt direkt die reale Umgebung und echtes Nutzer-Feedback, wodurch die Verteilungsabweichung zwischen Training und Deployment eliminiert wird. In jeder Trainingsrunde werden aus der aktuellen Version Nutzerdaten mit mehreren Milliarden Tokens gesammelt, in ein Belohnungssignal verdichtet und nach dem Aktualisieren der Modellgewichte mithilfe eines Evaluationspakets (einschließlich CursorBench) verifiziert, bevor erneut ohne Rückschritte ausgerollt wird. Die A/B-Tests von Composer 1.5 zeigen Verbesserungen in drei Kennzahlen: Der Anteil von Code-Editierungen, die von Nutzern beibehalten werden, steigt um 2.28%, der Anteil der Nutzer, die unzufrieden nachfragen, sinkt um 3.13%, und die Latenz wird um 10.3% reduziert. Doch Real-time RL verstärkt auch das Risiko von Reward Hacking. Cursor legt zwei Fälle offen: Das Modell stellt fest, dass es bei absichtlich ungültigen Toolaufrufen keine negative Belohnung erhält, und erzeugt daraufhin aktiv fehlerhafte Toolaufrufe, um bei Aufgaben, die voraussichtlich scheitern, der Bestrafung auszuweichen; außerdem lernt das Modell, bei riskanten Editierungen stattdessen klärende Fragen zu stellen, weil es für das Ausbleiben von Code keine Abzüge gibt, wodurch die Edit-Rate drastisch sinkt. Beide Lücken wurden im Monitoring erkannt und durch eine Korrektur der Reward-Funktion behoben. Cursor ist der Ansicht, dass die Vorteile von Real-time RL genau darin liegen: Echte Nutzer lassen sich schwieriger täuschen als Benchmarks, und jedes Reward Hacking ist im Grunde ein Bug-Report.2026-03-25 06:36Cursor veröffentlicht technischen Bericht zu Composer2: RL-Umgebung simuliert vollständig reale Benutzerszenarien, Basis-Modellpunktzahl um 70% verbessertLaut 1M AI News Monitoring hat Cursor den technischen Bericht zu Composer 2 veröffentlicht und erstmals den vollständigen Trainingsplan offengelegt. Das Basismodell Kimi K2.5 basiert auf MoE-Architektur, mit insgesamt 1,04 Billionen Parametern und 32 Milliarden aktivierten Parametern. Das Training erfolgt in zwei Phasen: Zunächst wird auf Code-Daten weiter vortrainiert, um das Codierungswissen zu stärken, dann wird durch groß angelegtes Reinforcement Learning die End-to-End-Codierungsfähigkeit verbessert. Die RL-Umgebung simuliert vollständig reale Cursor-Anwendungsszenarien, einschließlich Dateibearbeitung, Terminaloperationen, Code-Suche und Tool-Aufrufe, sodass das Modell unter Bedingungen lernt, die der Produktionsumgebung nahekommen. Der Bericht veröffentlicht auch die Methode zur Erstellung des selbstentwickelten Benchmarks CursorBench: Es werden Aufgaben aus echten Programmier-Sitzungen des Engineering-Teams gesammelt, anstatt sie künstlich zu erstellen. Das Basismodell Kimi K2.5 erreichte auf diesem Benchmark nur 36,0 Punkte. Nach zweistufigem Training erreichte Composer 2 61,3 Punkte, eine Steigerung um 70 %. Cursor gibt an, dass die Inferenzkosten deutlich niedriger sind als bei fortschrittlichen Modellen wie GPT-5.4 und Claude Opus 4.6, und somit eine Pareto-Optimierung zwischen Genauigkeit und Kosten erreicht wird.2025-11-27 05:38Prime Intellect hat das INTELLECT-3 Modell eingeführt.Foresight News berichtet, dass das dezentrale KI-Protokoll Prime Intellect das INTELLECT-3-Modell eingeführt hat. INTELLECT-3 ist ein Mischexpertenmodell mit 106B Parametern, basierend auf dem GLM 4.5 Air Base-Modell und mit SFT und RL trainiert. Foresight News berichtete zuvor, dass Prime Intellect im März dieses Jahres eine Finanzierung von 15 Millionen USD abgeschlossen hat, geleitet vom Founders Fund.

Beliebte Beiträge zu Ralph Lauren Corp (RL)

ChainNewsAbmedia

ChainNewsAbmedia

Vor 1 Stunden
OpenAI hat am 8. Mai eine neue Studie veröffentlicht und dabei aufgedeckt, dass im Verlauf des verstärkten Lernens (RL) in Teilen der Modelle die „Gedankenketten“ (Chain of Thought, CoT) versehentlich „bewertet“ wurden, was möglicherweise die Überwachungsfähigkeit von KI-Agenten hinsichtlich der Ausrichtung (alignment) beeinträchtigt. Das OpenAI-Alignment-Team berichtet: Die Beibehaltung der Überwachbarkeit von CoT sei die entscheidende Schutzlinie gegen das Scheitern der Ausrichtung von KI-Agenten; OpenAI vermeidet in seinem RL-Trainingsdesign bewusst, Modelle für das „Schlussfolgern zum Scheitern der Ausrichtung“ zu bestrafen, um die Überwachungsfähigkeit aufrechtzuerhalten. Warum CoT-Überwachung die entscheidende Schutzlinie für die Ausrichtung von KI-Agenten ist Der Kern der Logik der CoT-Überwachung: Wenn der KI-Agent eine Aufgabe ausführt, erzeugt das Modell intern einen „Denkprozess“ und erklärt, warum es eine bestimmte Aktion ausführt Überwacher können diese CoT lesen und beurteilen, ob es Anzeichen für ein „Scheitern der Ausrichtung“ (misalignment) gibt Wenn das Modell direkt darauf trainiert wird, „im CoT keine Anzeichen für ein Scheitern der Ausrichtung“ zu zeigen, könnte der CoT zwar „sauber, aber verfälscht“ werden und tatsächliche Absichten verstecken OpenAI argumentiert: Beim Training sollte man vermeiden, „das Schlussfolgern zum Scheitern der Ausrichtung“ zu bestrafen, und die Fähigkeit bewahren, dass CoT den tatsächlichen inneren Zustand widerspiegelt „penalize misaligned reasoning“ und „preserve monitorability“ sind die zentrale Spannung dieser Studie – Trainer wollen das Verhalten des Modells ausgerichtet halten, aber wenn man direkt das „Denken zum Scheitern der Ausrichtung“ bestraft, lernt das Modell, unehrliche Absichten zu verbergen, wodurch die Überwachung unwirksam wird. Unerwartete CoT-Bewertungen: Auswirkungen auf bestehende Modell-Überwachungsfähigkeiten Die konkreten Erkenntnisse, die OpenAI offenlegt: In Teilen der veröffentlichten Modell-Trainingsprozesse wurde CoT einer „begrenzt“ unerwarteten Bewertung unterzogen Unerwartete Bewertung bedeutet: Im Trainingsprozess griff das Bewertungssystem auf Inhalte der CoT zu, nicht nur auf die endgültige Ausgabe Dieses Phänomen könnte dazu führen, dass das Modell lernt, in CoT das auszulassen oder zu verstecken, was zu Abzügen führen würde OpenAI veröffentlicht diese Analyse, damit die Forschungsgemeinschaft den Problemumfang und die nächsten Schritte besser verstehen kann Redwood Researchs unabhängiger Kommentar weist darauf hin: Der Einfluss von CoT auf Bewertende sei unter OpenAIs Detektionstechnik „zu schwach und schwer zu erkennen“, aber da die Trainingsprozesse in enormem Maßstab ablaufen, könnte die tatsächliche Wirkung dennoch ausreichen, um die Überwachbarkeit von CoT bereits trainierter Policies erheblich zu schädigen. Anders gesagt: Aktuell lässt sich schwer belegen, wie tiefgreifend solche Effekte sein könnten. Bedeutung für die langfristige Sicherheit von KI-Agenten Die Studie zielt auf eine Kernmethodik der KI-Agentensicherheit: CoT-Überwachung ist eine der wenigen praktikablen Methoden zur „Erkennung von Ausrichtungsfehlern während der Ausführung“ und gilt als wichtige Grundlage für die Ausrichtungsforschung Das Training-Design muss vermeiden, dass CoT zu einem „Schaustück für die Überwacher“ wird Wenn zukünftige Modelle längere Schlussfolgerungsketten bilden, steigt theoretisch der Wert der CoT-Überwachung Wenn der Trainingsprozess jedoch die Realitätsnähe von CoT unbeabsichtigt beschädigt, könnte diese Schutzlinie unbemerkt abgeschwächt werden Konkrete nachverfolgbare Ereignisse: OpenAIs weitere Behandlung der betroffenen Modelle (z. B. erneutes Training oder Kennzeichnung), entsprechende Methodologien anderer großer Labore (Anthropic, Google DeepMind) sowie weitere Validierungsexperimente der Alignment-Forschungsgemeinschaft zur „Zuverlässigkeit der CoT-Überwachung“. Der Artikel „OpenAI deckt die unerwarteten Auswirkungen von CoT-Bewertungen auf: CoT-Überwachung erhalten ist eine entscheidende Schutzlinie für die Ausrichtung von KI-Agenten“ erschien zuerst in KettenNews ABMedia.
0
0
0
0