Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 300 résultats.
Freelance
CDI

Offre d'emploi
Techlead Cloud (.Net)

HOXTON PARTNERS
Publiée le
.NET
AWS Cloud

9 mois
45k-62k €
400-600 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre du renforcement de ses équipes techniques, une organisation recherche un Tech Lead Cloud afin de piloter la conception et la qualité des solutions applicatives. Le poste s’inscrit dans un environnement technique exigeant avec une forte interaction avec les architectes et les équipes de développement. Missions principales Concevoir les architectures techniques applicatives dans un environnement cloud majoritairement AWS Assurer le rôle de référent technique pour les équipes de développement, notamment sur les environnements .NET Collaborer avec les architectes pour garantir la cohérence des choix techniques Encadrer les bonnes pratiques de développement, d’industrialisation et de qualité logicielle Participer à l’amélioration continue des standards techniques et des processus d’ingénierie
Freelance

Mission freelance
Data Engineer / Développeur PL/SQL (Exprert)

Keypeople Consulting
Publiée le
Oracle
PL/SQL

6 mois
400-450 €
Île-de-France, France
Nous cherchons : Data Engineer / Développeur PL/SQL Projet stratégique Data & IA Dans le cadre de la mise en place d’un DataHub IA pour une plateforme de consolidation de données à l’échelle Groupe, nous recherchons un Ingénieur Data disposant d’une solide expertise Oracle & PL/SQL . Vous interviendrez dans un environnement Data à forts volumes , avec des enjeux majeurs de performance , de fiabilité des calculs et d’ alimentation d’un moteur IA . Contexte La plateforme permet de collecter, consolider et traiter des données critiques servant au calcul d’indicateurs de pilotage stratégiques. Le DataHub joue un rôle central dans la préparation, la transformation et l’optimisation de ces données. Vos missions 🔹 Data & Performance Mise en place de la collecte de données Création et modélisation des modèles de données Optimisation des traitements et des performances Réalisation de tests de performance Analyse et résolution des problèmes de performance Oracle Revue et optimisation des calculs statistiques 🔹 Développement Développement de procédures PL/SQL (collecte, calcul, agrégation) Mise en place des processus de préparation de données en respectant les cas d’usage 🔹 Conception Conception de solutions basées sur les outils standards disponibles Rédaction des cas d’usage et des exigences fonctionnelles Rédaction des dossiers d’analyse et de conception Modélisation des différents modèles de données identifiés 🛠️ Compétences requises Excellente maîtrise Oracle Très bonne expertise PL/SQL Expérience en optimisation de performance base de données Conception et modélisation de données Contexte forts volumes de données Connaissances Exadata / ExaCC fortement appréciées Abglais courant. 💡Profil recherché : rigoureux, orienté performance, à l’aise dans des environnements
Freelance

Mission freelance
100704/Salesforce Marketing Cloud Nantes

WorldWide People
Publiée le
Salesforce

9 mois
400-550 €
Nantes, Pays de la Loire
Mission de consultanting Salesforce Marketing Cloud. Les exigences client attendues : - Très bonne connaissance et expérience technique récente de la plateforme Salesforce Marketing Cloud (2 ans minimum). - Maîtrise du connecteur SFMC / CRM Salesforce BtoC. - Connaissance des outils de gestion de projet et de documentation JIRA et Confluence. - Connaissances en outils d'animation d'atelier. - Compréhension de la chaîne de la relation client. - Connaissances en Salesforce Platform et compétences en développement d'applications natives seraient un plus. - Certifications souhaitées : Développeur Salesforce Marketing Cloud. - Maîtrise des obligations RGPD et des enjeux CRM. - Maîtrise écrite et orale de l'anglais. Qualifications : Salesforce Marketing Cloud - Développer de nouvelles fonctionnalités Salesforce Marketing Cloud et assurer leur intégration dans les différents fronts de SNCF Gares & Connexions. - Assurer la maintenance évolutive et corrective de la plateforme SFMC et de l'ensemble de ses briques, ainsi que le maintien opérationnel de la plateforme SFMC, de ses briques fonctionnelles et techniques, du connecteur SFMC / CRM Salesforce, et des actions techniques préventives associées. - Réaliser et mettre en œuvre l'ensemble des opérations techniques de la conception à l'activation d'un parcours clients email et push, notamment : - Concevoir des parcours clients via Journey Builder. - Concevoir techniquement des emails, des templates et les intégrer en HTML, personnaliser des contenus via AMPscript, et gérer des contenus dynamiques et des formulaires interactifs par email. - Concevoir et gérer l'alimentation (via SQL) des Data Extensions. - Mettre en place des processus automatisés de synchronisation avec le CRM ou le Datalake via FTP. - Mettre en place et surveiller des processus de purge (conformes au RGPD) de la gestion des adhésions, tant pour les emails que pour les identifiants de dispositif. - Assurer le maintien opérationnel de la plateforme Salesforce Marketing Cloud. - Conseiller et accompagner les métiers et leurs pairs pour garantir un bout en bout, notamment : - Accompagner fonctionnellement et techniquement les métiers. - Guider les équipes Digitales Appli, site, dans l'optimisation de l'intégration du SDK et du suivi. - Conseiller sur les modalités de mesure de la performance et de l'engagement de bout en bout. - Participer aux cérémonies agiles, aux développements, aux tests unitaires et aux tests de non-régression, ainsi qu'au suivi des fonctionnalités développées. Les exigences client attendues : - Très bonne connaissance et expérience technique récente de la plateforme Salesforce Marketing Cloud (2 ans minimum). - Maîtrise du connecteur SFMC / CRM Salesforce BtoC. - Connaissance des outils de gestion de projet et de documentation JIRA et Confluence. - Connaissances en outils d'animation d'atelier. - Compréhension de la chaîne de la relation client. - Connaissances en Salesforce Platform et compétences en développement d'applications natives seraient un plus. - Certifications souhaitées : Développeur Salesforce Marketing Cloud. - Maîtrise des obligations RGPD et des enjeux CRM. - Maîtrise écrite et orale de l'anglais. Qualifications : Salesforce Marketing Cloud
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch

Strasbourg, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
[LFR] Senior en GNC / V&V à Toulouse - 1342

ISUPPLIER
Publiée le

10 mois
300-500 €
Toulouse, Occitanie
Contexte général du besoin La mission consiste à structurer, planifier et réaliser des activités avancées de V&V sur des algorithmes GNC tout au long du cycle de développement. Le périmètre couvre des analyses de performance, de robustesse et de stabilité dans des environnements complexes. Missions principales Définir et challenger les exigences GNC pour garantir leur testabilité et leur traçabilité. Construire des plans de vérification complets (cas nominaux, stress-cases, couverture, analyses Monte‑Carlo). Définir les environnements de test : dynamiques, modèles senseurs/actionneurs, bruit, synchronisation, modes dégradés, dispersions, etc. Définir les critères de performance et de stabilité (stabilité, convergence, consommation propulsive, covariance…). Préparer les plans de test SIL / MIL / HIL / Flatsat et leurs critères d’acceptation. Analyser les résultats et accompagner les équipes dans l’amélioration de la robustesse et de l’observabilité des algorithmes. Compétences techniques attendues Expertise confirmée en GNC / AOCS (guidage, navigation, contrôle). Très bonne maîtrise des activités de V&V, des analyses de performance et de robustesse. Connaissance avancée en filtrage de navigation, stabilité/contrôle et convergence. Expérience solide en SIL, MIL, HIL et Flatsat. Très bonne connaissance des standards ECSS et du V-cycle. Capacité à travailler en autonomie et à jouer un rôle de référent technique. Anglais Fluent OBLIGATOIRE. Expérience minimale souhaitée : ≥ 7 ans d’expérience sur un périmètre similaire. Informations opérationnelles Durée : 6 mois Démarrage souhaité : ASAP Localisation : Toulouse ou full remote (accepté) Quelques déplacements ponctuels possibles selon les essais. Production de livrables V&V : test plans, test reports, matrices de couverture.
Freelance
CDI

Offre d'emploi
Ingénieur Support et Exploitation Plateformes Data

VISIAN
Publiée le
Apache Spark
Kubernetes

1 an
40k-45k €
400-650 €
Paris, France
Descriptif du poste Notre équipe est responsable du maintien en condition opérationnelle des plateformes suivantes qui tournent sur IKS (Kubernetes IBM) et bientôt sur OpenShift : Apache Spark Apache Airflow/Astronomer Starburst (trino) Dans le cadre du renforcement de notre capacité de support sur la nouvelle offre "DATAHUB V2", nous recherchons des prestataires spécialisés dans l'exploitation et le support de ces plateformes. Missions La prestation visera à : Assurer le maintien en condition opérationnelle en production des plateformes (Airflow, Spark, Starburst) Intervenir dans la gestion des incidents, l'analyse des root causes et la résolution Participer à l'optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst Accompagner les équipes métiers dans l'utilisation efficace et sécurisée des plateformes Contribuer à la documentation et à l'amélioration continue de l'écosystème d'exploitation
Freelance
CDI

Offre d'emploi
Databricks Data Engineer

VISIAN
Publiée le
API REST
PySpark

1 an
Île-de-France, France
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Freelance

Mission freelance
Cloud Engineer NAS

Codezys
Publiée le
Infrastructure
NetApp
Nutanix

12 mois
450-500 €
Paris, France
Type de prestation : Cloud Engineer NAS Lieu de la mission : Paris 17 Durée de la prestation : 3 mois, renouvelable TJM : 500€ Expérience requise : minimum 8 années Date de démarrage : Dès que possible (ASAP) Date limite de réponse : 20/02/2026 Une période de service gratuite de deux jours sera offerte au démarrage. Maîtrise courante de l'anglais requise, avec transmission du CV en anglais. Description : Le service comprendra les activités suivantes : A. Gestion de l'infrastructure de stockage Conception et déploiement de solutions de stockage en réseau (NAS) et de solutions cloud-based. Configuration des volumes et des niveaux de stockage en fonction des besoins en performance. Optimisation des performances du stockage via tuning et équilibrage de charge. Assurance d'un service actif 24/7 et organisation des interventions tôt le matin. Rédaction et partage de documentation technique (Low-Level Design, procédures, processus). B. Protection des données & Sauvegarde Implémentation de stratégies de sauvegarde et de récupération en cas de disaster recovery pour éviter toute perte de données. Utilisation et gestion des solutions de sauvegarde selon les besoins. Développement de stratégies de réplication inter-centres de données pour assurer la continuité des activités. C. Sécurité du stockage & Conformité Mise en œuvre de chiffrement, de contrôles d'accès et de permissions basées sur les rôles pour sécuriser les données stockées. Veille au respect des normes réglementaires telles que GDPR, HIPAA, ISO 27001, etc. Surveillance et prévention contre les ransomwares et accès non autorisés aux systèmes de stockage. Participation à la résolution des problématiques d'audit et à la remédiation des non-conformités. D. Planification de la capacité & Optimisation Analyse de l'utilisation du stockage et prévision des besoins futurs. Optimisation de l'efficacité du stockage via la déduplication, la compression et le provisioning dynamiques. Automatisation de la gestion du stockage à l'aide de scripts (Python, Bash ou PowerShell). E. Résolution de problèmes & Optimisation des performances Identification et résolution des goulets d'étranglement tels que latence, IOPS ou défaillances de disques. Mises à jour du firmware, correctifs et vérifications de l'intégrité des systèmes de stockage. Collaboration étroite avec les équipes réseau et database pour optimiser le flux de données global. Gestion des incidents, résolution et interface avec les parties prenantes.
Freelance

Mission freelance
Software Engineer Expert

Codezys
Publiée le
Automatisation
Azure
Azure Data Factory

6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Freelance
CDI

Offre d'emploi
DEVOPS & App INTEGRATION FACTORY

Codezys
Publiée le
Administration système
Azure
Azure Data Factory

24 mois
40k-50k €
340-420 €
Hauts-de-Seine, France
Localisation et organisation Site situé dans le 92 avec 1 jour sur site et 4 jours en télétravail par semaine. Intégré à la Direction Infrastructure Technique de la DSI. Rattaché au responsable de l’équipe « DEVOPS & App INTEGRATION FACTORY ». Rôle principal Garant de l’intégration applicative, tant technique que fonctionnelle, dans le respect de l’architecture et de la sécurité du groupe. Production de la documentation technique en lien avec les architectes et l’exploitation. Développement des pratiques DevOps. Interventions en expertise sur incidents complexes (N3). Valeur ajoutée Assemblage des composants logiciels et infrastructure selon les plans d’urbanisme, architecture et sécurité. Connaissance de l’état de l’art technique pour une intégration optimale. Amélioration de la performance, disponibilité, supervision et évolutivité du SI. Documentation et référencement technique des applications. Maîtrise des architectures IaaS, PaaS, SaaS et On-Premise. Fondamentaux du poste Leadership et compétences en collaboration et communication. Développement des compétences techniques et rédactionnelles. Activités principales Coordination de l’infrastructure pour la création de nouveaux environnements (recette, pré-production, production). Support à l’équipe projet lors des phases techniques. Définition des solutions techniques en lien avec les équipes applicatives, architectes et urbanistes. Participation à la sélection des intégrateurs lors des appels d’offres. Rédaction de documents techniques pour la construction et le maintien opérationnel. Mise en place d’environnements applicatifs, développement Infra-As-Code (HCL Terraform) et gestion de prestataires externes. Installation d’applications, création de VMs, ouverture de flux, implémentation d’intergiciels et interfaces inter-applicatives. Support à la recette, mise en production, et mise en place de la supervision applicative. Gestion des besoins/demandes, relai avec les équipes techniques et optimisation des processus d’intégration. Performance et amélioration continue Pilotage du catalogue des services d’intégration applicative. Optimisation des processus d’intégration et déploiement. Veille technologique et participation aux audits de sécurité. Démarche d’amélioration continue et capitalisation (retours d’expérience, modes). Gestion des incidents et conformité Contribution à la résolution d’incidents de production nécessitant une expertise technique. Respect des responsabilités selon le modèle de delivery SI (matrices RACI).
Freelance
CDI

Offre d'emploi
Data Scientist NLP (H/F)

STORM GROUP
Publiée le
AI
Apache Airflow
BigQuery

3 ans
50k-58k €
450-500 €
Île-de-France, France
• contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques, • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Freelance

Mission freelance
Responsable d’Application (RUN & DATA GCP)

Codezys
Publiée le
Git
Reporting
Shell

6 mois
Lille, Hauts-de-France
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
Freelance

Mission freelance
Expert Data Transfer / Intégration SI

Codezys
Publiée le
API
Control-M
Middleware

12 mois
450-500 €
Paris, France
Dans le cadre d’un projet relatif à l’intégration d’une société d’investissement au sein d’une société de gestion d’actifs, nous recherchons un expert en transferts de données et interconnexions entre systèmes d’information. L’objectif est d’accompagner la mise en place des flux de données et des connecteurs nécessaires entre les applications existantes de la premier organisme et celles du second, afin de garantir une transition efficace, sécurisée et maîtrisée. Description de la mission L’expert interviendra sur des sujets liés à l’intégration applicative et à la circulation des données entre SI, en étroite collaboration avec les équipes techniques déjà en place (middleware, ordonnancement, connectivité, applicatifs, etc.). Principales responsabilités Analyser les besoins de transfert de données entre les systèmes d’information des deux entités. Participer à la conception et à la mise en œuvre des connexions et flux nécessaires. Travailler avec les experts internes sur les volets : Middleware Scheduling / Ordonnancement Connectivité réseau Applications et interfaces Définir les modalités techniques de transfert : protocoles, formats, fréquences, sécurisation, monitoring Contribuer à la fiabilisation des échanges (tests, validation, résolution d’incidents). Documenter les solutions mises en place (schémas de flux, procédures, référentiels techniques).
Freelance

Mission freelance
Data Product Manager/PO (Rennes)

Atlas Connect
Publiée le
BigQuery
Data Lake
Data science

12 mois
500-540 €
Rennes, Bretagne
Nous recherchons un Data Product Manager freelance hybride, technique et opérationnel, capable de traduire les besoins métiers en solutions concrètes et de participer activement à la réalisation de prototypes. Compétences et qualités : Technique : maîtrise avancée de SQL (idéalement BigQuery), capable de manipuler la donnée et de créer des dashboards simples (ex. Looker Studio) pour prototyper. Pragmatique : travailler en mode MVP rapide, tester et itérer rapidement. Relationnel : aisance relationnelle, capacité à fluidifier les échanges et créer du lien avec les équipes. Connaissance de GCP (Google Cloud Platform) Notions de Python (lecture et compréhension de scripts simples) Modalités Localisation : Rennes / Hybride (à définir) Démarrage : Dès que possible

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4300 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous