Trouvez votre prochaine mission ou futur job IT.

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Offre d'emploi
Data engineer (H/F)
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL

Mission freelance
Data Scientist expert Octroi de Crédit et Risque de Crédit
Contexte Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme comporte plusieurs objectifs, dont celui de proposer des fonctionnalités utilisant de l’IA afin d’améliorer des processus ou produits existants. C’est dans ce contexte que l’équipe IALAB, au sein de la Direction Data, participe à l’exploration et la création d’indicateurs permettant de mieux appréhender le comportement des entreprises et l'appréciation du risque financier. Missions Dans le cadre de l’intégration d’algorithmes IA sur nos plateformes digitales d’octroi de crédits, le profil recherché aura la responsabilité de : • Analyser et comprendre en profondeur les objectifs et les exigences du projet en se basant sur les spécifications techniques et fonctionnelles • Proposer des nouveaux indicateurs en se basant sur les données existantes (données comptables, bancaires) • Etudier et fournir les éléments de décision pour intégrer des nouvelles sources de données alternatives afin de mieux apprécier le risque de défaut d’une entreprise • Echanger d’une manière régulière avec les différentes parties prenantes du projet et être force de proposition pour les besoins des parcours digitaux et des métiers • Superviser les performances des APIs et des algorithmes déployés en assurant un suivi rigoureux et régulier • Proposer des outils et des méthodes d’analyse pour une détection rapide des anomalies et problèmes • Evaluer régulièrement les résultats et les retours du projet afin d’identifier les axes d’améliorations et les opportunités d'optimisation • Contribuer à la documentation technique et fonctionnelle relative à l’architecture, aux APIs et aux algorithmes déployés Compétences métier • Appétence pour les problématiques bancaires et compréhension des enjeux • Connaissance des processus bancaires et plus spécifiquement d’octroi de crédit • Connaissance des indicateurs clés de bonne santé financière d’une entreprise • Bonne connaissance des données liées aux entreprises et des données open data associées • Très bonne connaissance des algorithmes de machine Learning et capacité à les appliquer pour résoudre des problèmes complexes • Aptitude à comprendre les problèmes techniques et à proposer des solutions adaptées • Capacité à communiquer de manière efficace avec différentes parties prenantes et à comprendre leurs besoins fonctionnels et techniques • Compétence dans la rédaction de documentation technique et fonctionnelle de qualité • Connaissance des APIs et de l’écosystème cloud de préférence AWS • Travail en méthodologie Agile • Expérience dans l’anticipation des écueils des projets de machine learning Liste des technologies • Python • Librairies Python de machine learning • Librairies de visualisation (ex plotly) et d’applications web type Dash ou Streamlit • Git Points critiques et différenciants PO au sein de l'IA LAB sujet au tour de l'Ia, de l'IA G solutions a créer et apporter pour les métiers Métier : octroi de crédit, l'octroi digital : dev d'une plateforme digitale et en ligne : besoin pour renforcer cette équipe offre dédiée aux PMEs, gros risques profil imaginatif explorer la data, trouver des solutions Data Scientist : - academique : - maitrise de la stack technique : machine Learning, python, libraire python, cloud AWS - SAFe / Scrum à minima - spécificité : connaissance octroi de crédit, risque de défaut, savoir analyser les données financières d'une entreprise, qqun capable de prendre du recul, maitrise des enjeux, appréciation des risques - où chercher / comment chercher des solutions - souple sur l'expérience Background CV : - expé en environnement bancaire et risque de crédit

Offre d'emploi
Développeur DATA
L'équipe de notre client a en charge la gestion d'applications métiers pour le compte de ses clients et des plateformes data. Le client est également fournisseur d'applications. Missions : Contribuer à l’estimation des User Stories et s’engager avec l’équipe sur un périmètre de réalisation au cours du prochain sprint, en adéquation avec la capacité à faire de l’équipe Développer les User Stories dans le respect des normes et standards de développement et de sécurité, en intégrant les enjeux data et sécurité Aider à définir et actualiser régulièrement les artefacts de l’équipe (DOR, DOD…) Durant le Sprint, partager l’avancement de ses travaux ainsi que les points de blocage à lever pour atteindre l’objectif fixé Contribuer à l’optimisation de la qualité du code (code review) et à sa maintenabilité Assurer les tests unitaires et contribuer aux autres activités de tests Mettre en œuvre les corrections nécessaires sur les anomalies détectées (build et run) Co-présenter en Sprint Review les résultats des stories prises en charge, les problèmes rencontrés et leur résolution, et répondre aux questions des participants Contribution à la documentation technique du produit Participer à la livraison du produit dans les différents environnements

Offre d'emploi
Consultant(e) Data Analyst
Mission Vous avez une forte appétence au Marketing et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Analyst / Gestionnaire de campagnes marketing. Votre mission principale consiste à participer à l'application de la stratégie marketing multicanal de votre client : du recueil des besoins aux déploiements des ciblages en passant par la coordination des besoins et la gestion des échéances ou au suivi de la délivrabilité Vous participez à la mission de communiquer au bon client au bon moment à travers le meilleur canal, avec pour objectif l'augmentation des conversations (achats, trafic, branding, ...) et/ou la limitation de l'attrition Vous analysez la performance des campagnes à travers nombres d'indicateurs permettant d'optimiser les ciblages des campagnes futures Vous recommandez des axes d'améliorations en vous appuyant sur la pertinence de vos analyses et votre force de proposition

Mission freelance
POT8623-Un Data Engineer sur Lille
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lille. Missions: Poursuivre / Finaliser le développement d'une infrastructure de gestion de données (collecte, stockage, traitement) sur AWS, incluant la sécurité de l'infrastructure et des données. Services AWS utilisés : S3, Lambda, Glue. Développement Infra as Code avec CDK et Transcript. Stockage des codes sur GitHub Enterprise. Déploiement avec GitHub Action. Maitriser la manipulation de données n'est pas la compétence la plus critique => donc bien maitriser le coté AWS, mais pas forcément sur Data. Data Engineer ou Cloud Engineer, compétences AWS, DevOps, Python

Mission freelance
DATA ANALYST SENIOR LOOKER
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe

Mission freelance
Data Analyst DATAIKU
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : CRM, Business Intelligence Description et livrables de la prestation Objectif de la mission : - Observer et analyser les données disponibles dans le CRM. - Identifier, à l’aide des indications fonctionnelles fournies par l’AMOA, les informations pertinentes pour le business : types de données disponibles, indicateurs exploitables, possibilités de croisements, limites éventuelles, etc. - Se poser la question clé : quelles données avons-nous réellement à disposition ? Finalité : - Construire des tableaux de bord sous Power BI afin de : - Aider le business à prendre des décisions éclairées. - Mettre en évidence des points de blocage ou d’inefficacité. - Proposer des améliorations concrètes des processus métiers (par exemple : gestion des ruptures de médicaments). Expertise souhaitée À l’aise avec Dataiku et PowerBI (utilisation courante, expertise avancée non requise) Maturité métier : excellente expérience en analyse de données CRM Compétences relationnelles : très bon relationnel, collaboratif avec les métiers et la MOA Force de proposition et grande autonomie Expérience concrète dans des missions d'exploration approfondie de données, prédominance CRM Maîtrise du requêtage SQL ; capacité à croiser des données complexes Sens du service : compréhension des enjeux métiers et restitution adaptée

Offre d'emploi
Lead Data Engineer Azure – Data Gouvernance & Plateformes Modernes
Dans le cadre d’un renfort stratégique, notre client recherche un Lead Data Engineer Azure pour intervenir sur des projets de transformation autour de la data, dans un environnement technique et fonctionnel exigeant. Le poste implique un rôle central dans la mise en place de plateformes data modernes et de pratiques de gouvernance des données. Missions : Définir et piloter l’ architecture data autour de concepts modernes : data mesh, data catalog , gouvernance des données. Participer à la mise en place de plateformes de data modeling et de catalogues de données dans un cadre de data gouvernance . Concevoir et implémenter des solutions techniques avec des outils tels que Databricks , Snowflake , Azure Synapse , etc. Collaborer étroitement avec les équipes métier pour comprendre les besoins fonctionnels et produire une documentation technico-fonctionnelle claire. Accompagner les équipes projet sur les bonnes pratiques d’ingénierie data , assurer une vision transverse et contribuer à l’ acculturation data au sein de l’organisation.
Offre d'emploi
Tech lead DATA
En tant que Lead Data Engineer , vous rejoindrez le département Data Analytics d'un cabinet du Big Four . Vous serez un acteur clé dans la transformation de nos capacités d'analyse et de gestion de données. Votre rôle sera d'orchestrer la chaîne de livraison des projets data, en coordonnant une équipe de 1 à 4 développeurs. Vous serez le point de contact technique avec les parties prenantes internes, assurant la bonne planification et l'exécution des projets, souvent en gérant plusieurs sujets en parallèle. Sur le plan technique, vous concevrez et mettrez en œuvre des modèles de données analytiques (cubes, SSAS, etc.) et définirez les KPI pour les dashboards. Vous gérerez les flux de données avec des outils comme Azure Data Factory ou SSIS . Une de vos missions principales sera la construction, dans les mois à venir, d'un Data Lake unique et d'un catalogue de données , en utilisant l' architecture Medallion et en choisissant une technologie de catalogue de données appropriée.

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.
Offre d'emploi
Data Engineer
Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.

Offre d'emploi
Chef de projet Data Finance
Nous recherchons un Senior Project Manager (H/F) expérimenté pour piloter un projet stratégique à forte dimension analytique et financière. Vous serez responsable du suivi des livrables, délais et budgets, de l’animation des parties prenantes (Finance, Data, IT, Produits) et de la coordination des équipes. Vous interviendrez également sur l’ analyse de données financières complexes , la synthèse des résultats pour le management, ainsi que sur l’ automatisation de processus critiques en lien avec les équipes Data.
Offre d'emploi
Product Owner Data H/F
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : rz49thmeji
Offre d'emploi
Dev Python Data (anglophone)
Nous recherchons pour notre client dans le secteur du textile un developpeur python data pour une mission longue a Ruel Malmaison Vos taches : • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…) • Compétences : >> Requises • Modélisation objet (MCD,MPD,UML…) • Architecture logicielle N-tiers, micro-batches et NRT • Développement Python + pandas + pytest + pyodbc + reques ts • SQL avancé (de préférence SQL Server) • Authentification déléguée: Oauth, SAML • Application Lifecycle Management + Unit testing • Anglais courant, écrit et parlé (conversations quotidiennes permanentes avec des équipiers non-francophones) >> Souhaitées • Administration Snowflake • Administration Linux • Administration Windows • Développement pyarrow , duckdb, pyiceberg • Sécurité: cryptographie basique (chiffrement symétrique, hashage en python ; gestion de certificats et clés privées avec openssl) ; gestion des secrets en vault
Offre d'emploi
Data Analyst Senior
Nous recherchons un Data Analyst confirmé/senior pour le compte de l'un de nos clients basé à Tours. Vous serez au sein de la direction DATA composée d'une 30aine de personnes. Vos missions principales seront : Développer et consolider des sources de données variées, en collaboration étroite avec les équipes métiers (principalement la direction commerciale, le contrôle de gestion, les services médicaux et l’après-vente). Concevoir et maintenir des solutions techniques sur Dataiku DSS , en garantissant leur robustesse et leur alignement avec les besoins métiers. Analyser et restituer les données de manière claire et actionnable, en documentant systématiquement vos travaux. Participer activement à des projets transverses, comme la modélisation de scores d’appétence, l’analyse de comportements clients ou l’optimisation de processus métiers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.