Als newbiegebruiker van Invantive Data Hub heb ik de navolgende vraag:
Een klant van ons maakt gebruik van het ophalen van gegevens uit diverse tabellen via de DataHub. Aangezien men sinds kort werkt met EOL zal het aantal mutaties nu nog klein zijn maar dit zal in de toekomst uiteraard gaan groeien waarbij mijn op een gegeven moment tegen de limiet van het aantal API calls gaat aanlopen.
Klopt het inderdaad dat de tabellen die opgehaald worden - al dan niet incremental - steeds opnieuw volledig worden gevuld?
Is het daarom verstandig - met het oog op de toekomst - dit gefilterd op te halen waarbij je enkel de mutaties van de afgelopen 7 dagen ophaalt en vervolgens dit overzet naar eigen datatabellen?
Of zijn hier ook andere - slimmere - methodes voor?
De huidige (oktober 2024) API rate-limieten zijn op Exact Online SaaS 5.000 calls per dag per administratie.
Hiermee is het sowieso mogelijk om 5 miljoen rijen te verwerken via de niet-incrementele API’s zoals TransactionLinesBulk sinds 2019. Via de incrementel API’s zijn hogere aantallen mogelijk sinds 2021, zie:
In het meest optimale scenario zijn ook bij tientallen miljoenen rijen maar twee API calls per administratie per verversing nodig, maar in de praktijk zal dit niet haalbaar blijken. Exact zal in Nederland (en binnenkort ook in Belgie) sowieso administraties met 1 miljoen rijen of meer proberen om te zetten van Exact Online SaaS naar Exact Online Premium met beduidend hogere limieten en “scalability blocks”.
Op de volgende pagina staan een aantal artikelen verzameld die mogelijk meer achtergrond kunnen geven in het goed inzetten van Data Hub en andere Invantive UniversalSQL-producten: Wat zijn de aandachtspunten om Power BI te implementeren?.