De discussie over de tokenisatie van realworld activa is opnieuw opgelaaid nadat Cardano oprichter Charles Hoskinson publiekelijk kritiek gaf op de aanpak van traditioneleDe discussie over de tokenisatie van realworld activa is opnieuw opgelaaid nadat Cardano oprichter Charles Hoskinson publiekelijk kritiek gaf op de aanpak van traditionele

Kan de XRP koers voordeel uit open netwerken halen terwijl Canton grote RWA leidt?

De discussie over de tokenisatie van realworld activa is opnieuw opgelaaid nadat Cardano oprichter Charles Hoskinson publiekelijk kritiek gaf op de aanpak van traditionele financiële instellingen. Volgens Hoskinson bouwen deze partijen via het Canton Network aan een gesloten systeem dat fundamenteel verschilt van wat open netwerken, blockchains zoals XRP en Midnight, al jaren doen. Wordt de XRP koers hierdoor op langere termijn beïnvloed? Check onze Discord Connect met "like-minded" crypto enthousiastelingen Leer gratis de basis van Bitcoin & trading - stap voor stap, zonder voorkennis. Krijg duidelijke uitleg & charts van ervaren analisten. Sluit je aan bij een community die samen groeit. Nu naar Discord XRP koers en de kritiek op institutionele tokenisatie Charles Hoskinson meldt op X dat banken en andere traditionele partijen proberen te bouwen wat XRP en Midnight volgens hem al doen, maar dan op een veel kleinere schaal. Hij geeft aan dat het tokeniseren van realworld activa alleen werkt met een volledig geïntegreerde aanpak. Daarbij horen volgens hem open infrastructuur, actieve communities en een langdurige betrokkenheid van developers. Hoskinson koppelde dit direct aan de omvang van de markt. Hij verwijst naar een potentiële waarde van ongeveer $10.000 miljard aan realworld activa. Volgens hem is dit geen markt waar halve oplossingen of gesloten netwerken succesvol kunnen zijn. Volgens hem gebruiken instellingen bij Canton beperkte technologie en missen ze daarmee de essentie van Web3. Hij zegt ook dat je geen geloofwaardige ecosystemen kunt kopiëren. XRP en Cardano hebben volgens hem communities die over meerdere cycli zijn opgebouwd. Dat kun je niet alleen kunstmatig nabootsen met institutionele samenwerkingen. I love it when I see legacy finance come together with Canton and try to build what XRP and Midnight are already doing at a scale 100x beyond their ambitions. These guys never learn and don’t understand what makes Web3 unique and meaningful. — Charles Hoskinson (@IOHK_Charles) December 26, 2025 Het Canton Network krijgt steun van grote financiële partijen De uitspraken van Hoskinson kwamen op een moment waarop het Canton Network juist meer zichtbare tractie krijgt binnen traditionele finance. Digital Asset, het bedrijf achter Canton, werkt samen met grote namen zoals DTCC, Broadridge en Tradeweb. Deze partijen gebruiken dit netwerk voor tokenisatie en de afwikkeling van financiële producten. DTCC kreeg recentelijk toestemming van de Amerikaanse toezichthouder SEC via een No Action Letter. Hierdoor mag het Amerikaanse staatsobligaties tokeniseren die bij DTC in bewaring zijn. Dit is een controleerbare en belangrijke stap, omdat DTCC een centrale rol speelt in de afhandeling van financiële transacties in de VS. Canton is echter geen publieke blockchain. Het netwerk is ‘permissioned’, wat betekent dat alleen goedgekeurde partijen eraan mogen deelnemen. Voor banken is dit aantrekkelijk vanwege compliance en controle. Voor veel Web3 developers is dit juist een beperking. Reactie vanuit Digital Asset en het Canton ecosysteem Yuval Rooz, CEO van Digital Asset, reageerde meteen op Hoskinsons uitspraken. Hij vroeg publiekelijk wat Hoskinson concreet had bereikt en beschuldigde hem ervan vooral waarde te onttrekken aan retail investeerders, zonder een vergelijkbare institutionele adoptie te kunnen laten zien. Ook Heslin Kim, de medeoprichter van Zenith en actief binnen het Canton ecosysteem, ging inhoudelijk in op de kritiek. Hij stelt dat Canton niet probeert te kopiëren wat XRP of Midnight doen. Volgens hem is het netwerk voor zowel een ander doel als een andere gebruikersgroep ontworpen. Kim geeft aan dat Canton al meer dan tien jaar wordt ontwikkeld en geoptimaliseerd. Hij noemt het product technisch volwassen en benadrukte dat het in productieomgevingen draait bij grote financiële instellingen. Volgens hem is het incorrect om Canton als niet Web3 weg te zetten. Dude. What did you achieve with your “Web3” chain other than extract money from retail? Please share volumes on dexes and defi please. https://t.co/SxKHh16Xje — Yuval Rooz 🟧 (@YuvalRooz) December 26, 2025 De technologische verschillen tussen publieke en gesloten netwerken Een belangrijk punt in deze discussie is het verschil tussen publieke blockchains zoals XRP en gesloten netwerken zoals Canton. XRP werkt op een open ledger waar iedereen de transacties kan verifiëren en zonder toestemming tokens kan gebruiken. Canton gebruikt Daml, een programmeertaal die speciaal voor financiële contracten en privacy is ontwikkeld. Dit biedt voordelen voor banken. De transacties zijn afgeschermd en alleen voor de betrokken partijen zichtbaar. Voor Web3 puristen betekent dit minder transparantie en beperkte interoperabiliteit met andere protocollen. Deze verschillen maken de vergelijking lastig. Hoskinson bekijkt tokenisatie vanuit een open Web3 perspectief. Canton richt zich op bestaande financiële infrastructuur en regelgeving. XRP en zijn positie in de realworld activa markt Volgens data van RWA.xyz is Canton momenteel het grootste netwerk als het gaat om de totale waarde van realworld activa die worden weergegeven of verdeeld. De totale waarde ligt rond $388.000 miljoen. Dat is aanzienlijk hoger dan bij publieke netwerken. Zowel XRP als Cardano staan op dit moment niet in de top tien van netwerken op basis van realworld activa waarde. Dit betekent niet dat deze netwerken geen rol spelen, maar wel dat een institutionele tokenisatie momenteel vooral via gesloten systemen loopt. Voor de XRP koers betekent dit dat de discussie vooral over de lange termijn gaat. XRP richt zich al jaren op betalingsverkeer en interoperabiliteit tussen financiële systemen. De vraag is of deze open aanpak uiteindelijk aantrekkelijker wordt voor instellingen zodra de regelgeving ervan verder is uitgekristalliseerd. Wat deze discussie over de toekomst van tokenisatie zegt De botsing tussen Hoskinson en het Canton ecosysteem laat zien dat tokenisatie geen eenduidige richting heeft. Er ontstaat een tweedeling tussen open (of publieke) netwerken met sterke communities en gesloten netwerken met een directe institutionele adoptie. Beide modellen hebben aantoonbare voordelen en beperkingen. De open netwerken bieden schaal en transparantie. Gesloten netwerken bieden controle en compliance. Welke aanpak dominant wordt, hangt af van de regelgeving, technologische volwassenheid en de bereidheid van instellingen om een open infrastructuur te gaan gebruiken. Vooruitkijkend blijft vooral relevant of de publieke blockchains zoals XRP een brug tussen deze werelden kunnen slaan. Als dit slaagt, kan dat blijvende gevolgen hebben voor de rol van XRP binnen tokenisatie en financiële infrastructuur. Best wallet - betrouwbare en anonieme wallet Best wallet - betrouwbare en anonieme wallet Meer dan 60 chains beschikbaar voor alle crypto Vroege toegang tot nieuwe projecten Hoge staking belongingen Lage transactiekosten Best wallet review Koop nu via Best Wallet Let op: cryptocurrency is een zeer volatiele en ongereguleerde investering. Doe je eigen onderzoek.

Het bericht Kan de XRP koers voordeel uit open netwerken halen terwijl Canton grote RWA leidt? is geschreven door Dirk van Haaster en verscheen als eerst op Bitcoinmagazine.nl.

Market Opportunity
XRP Logo
XRP Price(XRP)
$1.8508
$1.8508$1.8508
+0.72%
USD
XRP (XRP) Live Price Chart
Disclaimer: The articles reposted on this site are sourced from public platforms and are provided for informational purposes only. They do not necessarily reflect the views of MEXC. All rights remain with the original authors. If you believe any content infringes on third-party rights, please contact service@support.mexc.com for removal. MEXC makes no guarantees regarding the accuracy, completeness, or timeliness of the content and is not responsible for any actions taken based on the information provided. The content does not constitute financial, legal, or other professional advice, nor should it be considered a recommendation or endorsement by MEXC.

You May Also Like

Summarize Any Stock’s Earnings Call in Seconds Using FMP API

Summarize Any Stock’s Earnings Call in Seconds Using FMP API

Turn lengthy earnings call transcripts into one-page insights using the Financial Modeling Prep APIPhoto by Bich Tran Earnings calls are packed with insights. They tell you how a company performed, what management expects in the future, and what analysts are worried about. The challenge is that these transcripts often stretch across dozens of pages, making it tough to separate the key takeaways from the noise. With the right tools, you don’t need to spend hours reading every line. By combining the Financial Modeling Prep (FMP) API with Groq’s lightning-fast LLMs, you can transform any earnings call into a concise summary in seconds. The FMP API provides reliable access to complete transcripts, while Groq handles the heavy lifting of distilling them into clear, actionable highlights. In this article, we’ll build a Python workflow that brings these two together. You’ll see how to fetch transcripts for any stock, prepare the text, and instantly generate a one-page summary. Whether you’re tracking Apple, NVIDIA, or your favorite growth stock, the process works the same — fast, accurate, and ready whenever you are. Fetching Earnings Transcripts with FMP API The first step is to pull the raw transcript data. FMP makes this simple with dedicated endpoints for earnings calls. If you want the latest transcripts across the market, you can use the stable endpoint /stable/earning-call-transcript-latest. For a specific stock, the v3 endpoint lets you request transcripts by symbol, quarter, and year using the pattern: https://financialmodelingprep.com/api/v3/earning_call_transcript/{symbol}?quarter={q}&year={y}&apikey=YOUR_API_KEY here’s how you can fetch NVIDIA’s transcript for a given quarter: import requestsAPI_KEY = "your_api_key"symbol = "NVDA"quarter = 2year = 2024url = f"https://financialmodelingprep.com/api/v3/earning_call_transcript/{symbol}?quarter={quarter}&year={year}&apikey={API_KEY}"response = requests.get(url)data = response.json()# Inspect the keysprint(data.keys())# Access transcript contentif "content" in data[0]: transcript_text = data[0]["content"] print(transcript_text[:500]) # preview first 500 characters The response typically includes details like the company symbol, quarter, year, and the full transcript text. If you aren’t sure which quarter to query, the “latest transcripts” endpoint is the quickest way to always stay up to date. Cleaning and Preparing Transcript Data Raw transcripts from the API often include long paragraphs, speaker tags, and formatting artifacts. Before sending them to an LLM, it helps to organize the text into a cleaner structure. Most transcripts follow a pattern: prepared remarks from executives first, followed by a Q&A session with analysts. Separating these sections gives better control when prompting the model. In Python, you can parse the transcript and strip out unnecessary characters. A simple way is to split by markers such as “Operator” or “Question-and-Answer.” Once separated, you can create two blocks — Prepared Remarks and Q&A — that will later be summarized independently. This ensures the model handles each section within context and avoids missing important details. Here’s a small example of how you might start preparing the data: import re# Example: using the transcript_text we fetched earliertext = transcript_text# Remove extra spaces and line breaksclean_text = re.sub(r'\s+', ' ', text).strip()# Split sections (this is a heuristic; real-world transcripts vary slightly)if "Question-and-Answer" in clean_text: prepared, qna = clean_text.split("Question-and-Answer", 1)else: prepared, qna = clean_text, ""print("Prepared Remarks Preview:\n", prepared[:500])print("\nQ&A Preview:\n", qna[:500]) With the transcript cleaned and divided, you’re ready to feed it into Groq’s LLM. Chunking may be necessary if the text is very long. A good approach is to break it into segments of a few thousand tokens, summarize each part, and then merge the summaries in a final pass. Summarizing with Groq LLM Now that the transcript is clean and split into Prepared Remarks and Q&A, we’ll use Groq to generate a crisp one-pager. The idea is simple: summarize each section separately (for focus and accuracy), then synthesize a final brief. Prompt design (concise and factual) Use a short, repeatable template that pushes for neutral, investor-ready language: You are an equity research analyst. Summarize the following earnings call sectionfor {symbol} ({quarter} {year}). Be factual and concise.Return:1) TL;DR (3–5 bullets)2) Results vs. guidance (what improved/worsened)3) Forward outlook (specific statements)4) Risks / watch-outs5) Q&A takeaways (if present)Text:<<<{section_text}>>> Python: calling Groq and getting a clean summary Groq provides an OpenAI-compatible API. Set your GROQ_API_KEY and pick a fast, high-quality model (e.g., a Llama-3.1 70B variant). We’ll write a helper to summarize any text block, then run it for both sections and merge. import osimport textwrapimport requestsGROQ_API_KEY = os.environ.get("GROQ_API_KEY") or "your_groq_api_key"GROQ_BASE_URL = "https://api.groq.com/openai/v1" # OpenAI-compatibleMODEL = "llama-3.1-70b" # choose your preferred Groq modeldef call_groq(prompt, temperature=0.2, max_tokens=1200): url = f"{GROQ_BASE_URL}/chat/completions" headers = { "Authorization": f"Bearer {GROQ_API_KEY}", "Content-Type": "application/json", } payload = { "model": MODEL, "messages": [ {"role": "system", "content": "You are a precise, neutral equity research analyst."}, {"role": "user", "content": prompt}, ], "temperature": temperature, "max_tokens": max_tokens, } r = requests.post(url, headers=headers, json=payload, timeout=60) r.raise_for_status() return r.json()["choices"][0]["message"]["content"].strip()def build_prompt(section_text, symbol, quarter, year): template = """ You are an equity research analyst. Summarize the following earnings call section for {symbol} ({quarter} {year}). Be factual and concise. Return: 1) TL;DR (3–5 bullets) 2) Results vs. guidance (what improved/worsened) 3) Forward outlook (specific statements) 4) Risks / watch-outs 5) Q&A takeaways (if present) Text: <<< {section_text} >>> """ return textwrap.dedent(template).format( symbol=symbol, quarter=quarter, year=year, section_text=section_text )def summarize_section(section_text, symbol="NVDA", quarter="Q2", year="2024"): if not section_text or section_text.strip() == "": return "(No content found for this section.)" prompt = build_prompt(section_text, symbol, quarter, year) return call_groq(prompt)# Example usage with the cleaned splits from Section 3prepared_summary = summarize_section(prepared, symbol="NVDA", quarter="Q2", year="2024")qna_summary = summarize_section(qna, symbol="NVDA", quarter="Q2", year="2024")final_one_pager = f"""# {symbol} Earnings One-Pager — {quarter} {year}## Prepared Remarks — Key Points{prepared_summary}## Q&A Highlights{qna_summary}""".strip()print(final_one_pager[:1200]) # preview Tips that keep quality high: Keep temperature low (≈0.2) for factual tone. If a section is extremely long, chunk at ~5–8k tokens, summarize each chunk with the same prompt, then ask the model to merge chunk summaries into one section summary before producing the final one-pager. If you also fetched headline numbers (EPS/revenue, guidance) earlier, prepend them to the prompt as brief context to help the model anchor on the right outcomes. Building the End-to-End Pipeline At this point, we have all the building blocks: the FMP API to fetch transcripts, a cleaning step to structure the data, and Groq LLM to generate concise summaries. The final step is to connect everything into a single workflow that can take any ticker and return a one-page earnings call summary. The flow looks like this: Input a stock ticker (for example, NVDA). Use FMP to fetch the latest transcript. Clean and split the text into Prepared Remarks and Q&A. Send each section to Groq for summarization. Merge the outputs into a neatly formatted earnings one-pager. Here’s how it comes together in Python: def summarize_earnings_call(symbol, quarter, year, api_key, groq_key): # Step 1: Fetch transcript from FMP url = f"https://financialmodelingprep.com/api/v3/earning_call_transcript/{symbol}?quarter={quarter}&year={year}&apikey={api_key}" resp = requests.get(url) resp.raise_for_status() data = resp.json() if not data or "content" not in data[0]: return f"No transcript found for {symbol} {quarter} {year}" text = data[0]["content"] # Step 2: Clean and split clean_text = re.sub(r'\s+', ' ', text).strip() if "Question-and-Answer" in clean_text: prepared, qna = clean_text.split("Question-and-Answer", 1) else: prepared, qna = clean_text, "" # Step 3: Summarize with Groq prepared_summary = summarize_section(prepared, symbol, quarter, year) qna_summary = summarize_section(qna, symbol, quarter, year) # Step 4: Merge into final one-pager return f"""# {symbol} Earnings One-Pager — {quarter} {year}## Prepared Remarks{prepared_summary}## Q&A Highlights{qna_summary}""".strip()# Example runprint(summarize_earnings_call("NVDA", 2, 2024, API_KEY, GROQ_API_KEY)) With this setup, generating a summary becomes as simple as calling one function with a ticker and date. You can run it inside a notebook, integrate it into a research workflow, or even schedule it to trigger after each new earnings release. Free Stock Market API and Financial Statements API... Conclusion Earnings calls no longer need to feel overwhelming. With the Financial Modeling Prep API, you can instantly access any company’s transcript, and with Groq LLM, you can turn that raw text into a sharp, actionable summary in seconds. This pipeline saves hours of reading and ensures you never miss the key results, guidance, or risks hidden in lengthy remarks. Whether you track tech giants like NVIDIA or smaller growth stocks, the process is the same — fast, reliable, and powered by the flexibility of FMP’s data. Summarize Any Stock’s Earnings Call in Seconds Using FMP API was originally published in Coinmonks on Medium, where people are continuing the conversation by highlighting and responding to this story
Share
Medium2025/09/18 14:40
Ripple IPO Back in Spotlight as Valuation Hits $50B

Ripple IPO Back in Spotlight as Valuation Hits $50B

The post Ripple IPO Back in Spotlight as Valuation Hits $50B appeared first on Coinpedia Fintech News Ripple, the blockchain payments company behind XRP, is once
Share
CoinPedia2025/12/27 14:24
Solana co-founder predicts that by 2026: the stablecoin market will exceed one trillion US dollars, and 100,000 humanoid robots will be shipped.

Solana co-founder predicts that by 2026: the stablecoin market will exceed one trillion US dollars, and 100,000 humanoid robots will be shipped.

PANews reported on December 27th that Anatoly Yakovenko, co-founder of Solana, released some predictions about 2026 on X, as follows: The total size of stablecoins
Share
PANews2025/12/27 15:04