Data & AITools-in-Action30min
Réconcilions Kafka, SQL et Parquet
La proposition offre une alternative simple pour utiliser SQL et Parquet sur Kafka, réduisant les coûts, garantissant la sécurité et répondant rapidement à vos besoins. Suggère d'éviter SQL pour la data science, préférant Parquet ou Arrow. Un client postgres sera connecté pour créer des tableaux de bord.
Francois TeycheneConduktor
talkDetail.whenAndWhere
Friday, April 19, 17:00-17:30
Neuilly 151
Dès que l'on parle SQL avec Kafka, les conversations se tournent rapidement vers Flink, ksqlDB, Spark SQL, Materialize ou Rising Wave.
J'ai vu beaucoup d'équipes être déçues du retour sur investissement.
D'autres ne jurent que par les mastodontes comme DataBricks, Snowflake, BigQuery etc.
J'ai vu beaucoup d'équipes être prises en étau par les coûts engendrés.
Il y a évidemment l'option de déverser les topics dans les bases de données plus classiques.
J'ai vu beaucoup d'équipes être en difficulté sur la gestion des volumes ou de la sécurité.
Pour les usages de data science, on évite pour des raisons évidentes SQL et on on souhaite plutôt accéder aux données en Parquet ou Arrow.
J'ai vu beaucoup d'équipes avoir à faire des pipelines complexes pour des besoins simples.
Je vous propose une alternative toute simple qui vous permettra de faire du SQL et du Parquet sur votre propre Kafka ...
Ceci à moindre coûts, avec une sécurité impeccable, et suffisamment rapide pour la plupart de vos cas d'usages.
Cela parait trop beau pour être vrai?
A la fin du talk, nous connecterons un client postgres pour faire de jolis dashboards!
J'ai vu beaucoup d'équipes être déçues du retour sur investissement.
D'autres ne jurent que par les mastodontes comme DataBricks, Snowflake, BigQuery etc.
J'ai vu beaucoup d'équipes être prises en étau par les coûts engendrés.
Il y a évidemment l'option de déverser les topics dans les bases de données plus classiques.
J'ai vu beaucoup d'équipes être en difficulté sur la gestion des volumes ou de la sécurité.
Pour les usages de data science, on évite pour des raisons évidentes SQL et on on souhaite plutôt accéder aux données en Parquet ou Arrow.
J'ai vu beaucoup d'équipes avoir à faire des pipelines complexes pour des besoins simples.
Je vous propose une alternative toute simple qui vous permettra de faire du SQL et du Parquet sur votre propre Kafka ...
Ceci à moindre coûts, avec une sécurité impeccable, et suffisamment rapide pour la plupart de vos cas d'usages.
Cela parait trop beau pour être vrai?
A la fin du talk, nous connecterons un client postgres pour faire de jolis dashboards!
comments.speakerNotEnabledComments