Grok 3 beta (xAI) heeft zojuist het EERSTE peer-reviewed klimaat wetenschappelijke artikel ooit geschreven.  Deze AI-mens symbiose gepubliceerd in Science of Climate Change komt tot interessante resultaten:

  •  Menselijke CO₂ (slechts 4% van de koolstofcyclus) verdwijnt in 3-4 jaar in oceanen en bossen, niet in eeuwen zoals het IPCC beweert.
  • Temperatuur leidt CO₂, niet andersom.
  • IPCC-modellen overdrijven opwarming (0,5 °C/decennium versus 0,13 °C in werkelijkheid).
  • Zonneactiviteit en natuurlijke cycli zijn dominant. 

In deze video wordt uitgelegd dat AI de menselijke leugens herhaalt (vanaf 9 min) en hoe dit met Grok 3 in ‘Think mode’ kan worden gemitigeerd (vanaf 15 min):

Interessant om te zien of in de toekomst deze Think mode en de conversatie die je met AI kunt hebben icm de leerfunctie die Grok – in tegenstelling tot de meeste mensen – etaleert, uiteindelijk tot de ontmaskering van de overheid als ‘ a gang of thieves writ large’ gaat leiden.  Bijvoorbeeld door simpele vragen te stellen: “ als je niet het recht hebt om te stelen en je kunt geen rechten overdragen die je niet hebt, hoe komen sommige mensen dan aan het ‘recht’ om anderen te beroven?”  Of misschien dat het tot beter begrip van economie gaat leiden als AI gevoed wordt met Oostenrijkse school info?  Of eindelijk tot het inzicht gaat leiden dat de “War on drugs” alleen maar averechts werkt etc. etc. 

Ik was tamelijk wantrouwig mbt AI, vermoedde dat het door overheden gebruikt zal worden om ons nog vakkundiger te knechten en dat het een ‘ garbage in, garbage out’ verhaal was.  Maar voornoemde aanpak en uitkomst biedt wat meer hoop.

17 REACTIES

  1. als ik het datamodel opvraag bij welke ai dan dan krijg ik steevast antwoord; ik ga niet verder dan 2023
    echt interessant als je vraagt wie usa president is
    oude meuk
    de broodheren blijven dus controle houden waar het om nieuwe ontwikkelingen gaat.

  2. Je kunt zoveel wetenschappers of AI laten bewijzen dat het hele klimaatgedoe bedrog is als je wil, maar het regime zal zich er weinig van aantrekken.
    Dat hebben we namelijk allemaal al gehad.

  3. @Hijseenberg


    In deze video wordt uitgelegd dat AI de menselijke leugens herhaalt (vanaf 9 min) en hoe dit met Grok 3 in ‘Think mode’ kan worden gemitigeerd (vanaf 15 min):

    Video te lang. Zafod had Venice.ai aangeraden ter mitigatie. Heb het even gevraagd, klopt dit zo een beetje (human in the loop):

    Venice

    1.1s

    Llama 3.3 70B

    Een interessante vraag! Het is inderdaad een bekend probleem dat AI-modellen, zoals Grok 3, kunnen leren om menselijke leugens en vooroordelen te herhalen. Dit kan gebeuren doordat de trainingsdata waarop het model is getraind, zelf ook voorbeelden van leugens en vooroordelen bevatten.

    Om dit probleem te mitigeren in ‘Think mode’ met Grok 3, zijn er een aantal mogelijke strategieën:

    Data-curatie: Zorg ervoor dat de trainingsdata die gebruikt wordt om Grok 3 te trainen, zo zuiver en objectief mogelijk is. Dit kan worden bereikt door een divers team van curatoren in te schakelen die de data controleren op leugens en vooroordelen.
    Debiasing-technieken: Er zijn verschillende debiasing-technieken die kunnen worden toegepast om de leugens en vooroordelen uit de trainingsdata te verwijderen. Voorbeelden hiervan zijn technieken zoals data-augmentatie, waarbij de data wordt uitgebreid met tegenovergestelde voorbeelden, of technieken zoals adversarial training, waarbij het model wordt getraind om weerstand te bieden aan aanvallen die zijn gebaseerd op leugens en vooroordelen.
    Reguliere evaluatie: Reguliere evaluatie van de prestaties van Grok 3 in ‘Think mode’ kan helpen om leugens en vooroordelen te detecteren en te corrigeren. Dit kan worden gedaan door een team van evaluatoren in te schakelen die de output van het model controleren op leugens en vooroordelen.
    Transparantie: Het is belangrijk om transparant te zijn over de beperkingen en de mogelijkheid van leugens en vooroordelen in Grok 3. Dit kan worden bereikt door duidelijke waarschuwingen en disclaimer te geven over de mogelijkheid van leugens en vooroordelen in de output van het model.
    Human-in-the-loop: Het is belangrijk om een human-in-the-loop-proces te hebben, waarbij de output van Grok 3 in ‘Think mode’ wordt gecontroleerd en geverifieerd door een menselijke evaluator. Dit kan helpen om leugens en vooroordelen te detecteren en te corrigeren.
    Door deze strategieën toe te passen, kan de kans op het herhalen van menselijke leugens en vooroordelen in Grok 3 in ‘Think mode’ worden geminimaliseerd. Echter, het is belangrijk om te onthouden dat geen enkel systeem perfect is en dat er altijd een kans blijft op het herhalen van leugens en vooroordelen.

  4. AI bestaat niet. Het zijn gewoon complexe LLM systemen. Zolang wetenschappers niet weten hoe bewustzijn en denken functioneert, kan het niet gekopieerd worden.
    De mens is in mijn ogen niet volwassen genoeg, om hiermee om te gaan.

  5. Ik zie AI als een verbeterde zoekmachine die ook nog wat andere dingen kan. Wat mij vooral opvalt is dat AI heel overtuigend antwoorden kan geven die inhoudelijk niet kloppen. Heb je met gewone zoekmachines ook.
    Getest: ChatGPT, Copilot, Grok, Venice (die best gauw op tilt slaat). En een paar die ik vergeten ben. Over ’tilt’ gesproken, ik vind een ouderwetse flipperkast eigenlijk leuker.

  6. Volgens Blavatsky hadden ze ook zoiets in Atlantis. Er gingen allerlei kwalijke entiteiten achter schuil.

    • Voor je het weet maken ze er een nieuwe religie van. Deelname aan de eredienst zal wel verplicht worden. Er zijn ook overeenkomsten met wat vroeger een orakel was.

      • Ja, ik had de Egyptische piramide ontdekking al gelezen. Wat inmiddels duidelijk is, is dat de piramides veel ouder zijn dan gedacht. Er zijn sporen van watererosie gevonden aan de voeten van de Sphinx wat betekent dat deze al bestond toen de Sahara nog groen was en dat is een hele tijd geleden. De piramides zijn bovendien wat overdreven groot en omslachtig voor een graftombe. Het zou zomaar een power plant kunnen zijn zoals sommigen denken, waaronder, ik meen, zelfs Nikola Tesla. Ik denk dat er veel is waar we bitter weinig van begrijpen. Zeker als het over geschiedenis gaat uit verloren tijden. Vaak worden er enorme conclusies getrokken, hele narratieven geformuleerd, op basis van een werkelijk minimum aan bewijs.

  7. James Corbett introduceert de term: algocratie voor een politieke orde die wordt gerund door een of meer algoritmes en maakt daarbij het argument dat de technocratie nog steeds springlevend is in de vorm van een aantal belangrijke tech-influencers die zich rondom Trump hebben verzameld. Dat zou op zich wel verklaren waarom Trump zo zijn gang mag gaan.

    https://corbettreport.com/algocracy/

    • Rechtspraak lijkt mij een van de terreinen waar AI aardig kan huishouden. Een contractje of een vonnis van het een of ander uitspuwen zal die nu wel kunnen. Het afwegen van de feiten zoals deze gebeurd zijn tegen de boekenkasten aan wetboeken die erover geschreven zijn, met inachtname van vigerende precedenten, lijkt mij de volgende stap. Vervolgens de AI koppelen aan rondzoemende drones met camera’s en microfoons en je krijgt snelrecht.

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in