Re: Vragen aan ChatGPT over de Bende

Ben wrote:

ChatGPT is geen zoekmachine. Het is generatieve AI die teksten genereert. Breda, als ik jouw prompt gebruik, krijg ik dit antwoord:

In België is er een plaats die zowel ‘Sart’ als ‘lez’ in de naam bevat:
Sart-lez-Spa: een deelgemeente van Jalhay in de provincie Luik.

In Frankrijk zijn er geen plaatsen gevonden die zowel ‘Sart’ als ‘lez’ in hun naam hebben.

Onvolledig en onjuist. Als je wilt weten welke plaatsnamen er in België en Frankrijk zijn met "Sart" en "Lez" ga je zoals mij moeten doen; het zelf opzoeken.

Ik weet het Ben dit zegt chatGPT er zelf over:

Een large language model (LLM) zoals ik kan feitelijk redeneren, maar met beperkingen. Hier zijn de sterke en zwakke punten:

Sterke punten:
    1.    Logische Structuur: Ik kan logische verbanden leggen op basis van bekende informatie en formele logica toepassen.
    2.    Grote Kennisbasis: Ik heb toegang tot veel feiten en kan patronen herkennen in historische en wetenschappelijke gegevens.
    3.    Consistentie in Formele Logica: Bij formele problemen (zoals syllogismen of wiskundige redenering) kan ik vaak correct redeneren.

Zwakke punten:
    1.    Gebrek aan Echt Begrip: Ik werk op basis van waarschijnlijkheden, niet vanuit een intrinsiek begrip van de werkelijkheid.
    2.    Gevoelig voor Verouderde of Foutieve Data: Als ik geen actuele informatie opzoek, kan ik uit verouderde kennis redeneren.
    3.    Geen Controle over Bronnen: Als ik geen webzoekopdracht uitvoer, baseer ik me op eerder getrainde informatie zonder bronverwijzing.
    4.    Hallucinaties: Soms genereer ik aannemelijke maar verzonnen informatie, vooral bij onbekende of slecht gedocumenteerde onderwerpen.

Re: Vragen aan ChatGPT over de Bende

M.a.w. je bent er geen biet mee zoals het momenteel werkt. In de US zijn een aantal advocaten door het ijs gegaan omdat ze chat GTP hadden gebruikt om zaken op te zoeken en die dan uiteindelijk verwerkten in hun conclusies. Toen de tegenpartij een aantal van de geciteerde cases trachtte op te zoeken bleken ze niet te bestaan. Einde zaak.

Formele logica algoritmisch toepassen en correlaties identificeren in datasets is iets heel anders dan correcte causale verbanden leggen en inzicht hebben.

53

Re: Vragen aan ChatGPT over de Bende

Het kan geen kwaad om AI te gebruiken als startpunt of als geheugenopfrisser. Ik ben geen expert maar ik denk dat Perplexity iets beter en dieper graaft. Perplexity doet ook aan bronvermelding (ChatGTP is meer "creatief'), en je kan ook de betere Pro functie van Perplexity vijf keer per dag gratis gebruiken. Maar Perplexity heeft ook nog veel beperkingen en missers. Toen ik gisteren in Perplexity zocht naar Sart en lez (d.m.v. meerdere aanvullende en corrigerende vragen) vond deze app nog een locatie die vroeger ook Sart en lez in haar naam had (Sart-lez-Saint-Vith), maar daar heb je niet zo veel aan en ik zou niet durven garanderen dat de lijst uitputtend is.

Je kan Chat GTP en Perplexity gebruiken ook professioneel als je maar heel goed de beperkingen weet. Blindelings rechtszaken in je pleidooi kopiëren zonder te checken is natuurlijk killing. Doorvragen, corrigeren, de door Perplexity bronnen bekijken en (heel voorzichtig) de door Perplexity genoemde rechtszaken gebruiken als uitgangspunt voor diepgaander juridisch onderzoek in de "boeken" kan tijd besparen, zeker om je geheugen op te frissen. Hetzelfde geldt voor de Bende van Nijvel. AI gebruiken kan geen kwaad maar je moet wel je eigen verstand en zoekkwaliteiten gebruiken. Maar de applicaties worden steeds beter. Wellicht hebben we er in de (nabije) toekomst meer aan. Ook in dit dossier.

Re: Vragen aan ChatGPT over de Bende

fenix wrote:

Met spijt in het hart kan ik geen letter van je post tegen spreken. Smley. Je hebt gelijk. of toch niet helemaal, want ik ben er rotsvast van overtuigd dat die gesofiticeerdere modellen al bestaan. Voorlopig is dit voor mij alleen een soort spelletje. Ik probeer te leren welke input ik moet geven en hoe ik mijn vragen moet stellen. Maar geloof mij, heel soms kom ik tot verbazingwekkende resultaten. Hoe groter de input, hoe groter de kans wordt dat een aantal inconsistenties er uit gehaald zal worden. Trouwens, ik ken zelf veel te weinig van dit systeem. Ik werd eigenlijk getriggerd door Breda die het systeem had toegepast om uit al de posts van fenix de persoonlijkheid van fenix te halen. Hetgeen het systeem niet wist was dat fenix ooit coconut was. Dus hebben we hetzelfde nog eens toegepast of laten toepassen op coconut etc. ... etc. ... Natuurlijk heb ik de resultaten doorgegeven aan mijn vrienden om hun ongezouten mening te vragen over de analyse.

En wat correlatie en causaliteit betreft, ik ben er haast zeker van dat ChatGTP zal concluderen dat er meer kinderen geboren worden waar er meer ooievaars zijn (om een gekend voorbeeld te gebruiken). Ik denk niet dat het systeem op zoek kan gaan naar andere mogelijke verklaringen zoals economische ontwikkeling als je die niet specifiek ingegeven hebt. Maar nogmaals, ik ken veel te weinig van ChatGTP. Ik weet alleen dat ChatGTP volledig de mist in gaat waar er geredeneerd moet worden. Of beter gezegd ging.

"OpenAI, het technologiebedrijf achter ChatGPT, heeft twee nieuwe AI-modellen aangekondigd die in staat zijn om ingewikkelde redeneer- en logicaproblemen op te lossen. Dat doen ze door "meer tijd te besteden aan nadenken over problemen voordat ze reageren, net zoals een mens dat zou doen", zegt het bedrijf.

Dus Xeno, let op met wat je zegt of schrijft over ChatGTP want sinds september 2024 zijn er modellen die blijkbaar meer kunnen dan "terugbouncen".

Voorbeeld ter illustratie: Gisterenavond ben ik, via chatGPT, op zoek gegaan naar 2 films die ik ooit heb gezien in mijn jeugd, maar waarvan ik enkel nog maar (vage) details herinnerde. Door mijn zoekopdrachten telkens scherper te maken, hoopte ik op de namen van deze films uit te komen: geen resultaten waar ik tevreden mee was.
Sterker nog: als ik de gegeven mogelijke antwoorden googlede, klopte hier vaak zaken niet, terwijl chatGPT toch elke keer mijn aangehaalde details meldde in de samenvatting van de gevonden film.

Taalkundig klopte de antwoorden perfect, maar inhoudelijk niet. Grote omschrijvingen waren juist, maar de details soms totaal niet.

ChatGPT is een taalmodel, het lijkt me ergens logisch dat die eenzelfde gebruiker met 2 accounts eruit kan halen, door vergelijking van jouw manier van schrijven.

Nu heb ik even moeten zoeken, maar ik herinnerde me dat jij, Fenix, jezelf ooit hebt bekendgemaakt als Coconut.
In het onderdeel "Stopzetting onderzoek", post nummer 32 (23/08/2022 om 21:22u) schreef je:

fenix wrote:

Dat was het dan ... ook voor mij dus. Als fenix kan ik hier nog weinig betekenen. Ik ga eindigen met een bekentenis, eigenlijk was ik coconut.

Het systeem kon dus wel weten dat fenix ooit coconut was, aangezien het letterlijk vernoemd is in een tekst. smile

55

Re: Vragen aan ChatGPT over de Bende

Inderdaad, je hebt gelijk, wist ik niet meer. Op verschillende fora zijn er een paar duizend posts van mij ... Ik weet dus absoluut niet meer wat ik allemaal geschreven heb en waar.Meestal is dat zelfs bij wijze van spreken tussen de soep en de patatten dat ik schrijf.