Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 709 résultats.
CDI

Offre d'emploi
ML/Data Engineer H/F

█ █ █ █ █ █ █
Publiée le
Apache Airflow
CI/CD
Github

Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Administrateur Système, Sauvegarde et Réseaux Senior – Lille

ASAP TECHNOLOGIES
Publiée le
Active Directory
Azure Active Directory
ELK

1 an
40k-45k €
350-440 €
Lille, Hauts-de-France
Nous recrutons pour l’un de nos partenaires un Administrateur Système, Sauvegarde et Réseaux Senior dans le cadre d’une mission basée à Lille . Vous interviendrez sur un périmètre infrastructures orienté MCO / exploitation / administration systèmes et réseaux , au sein d’un environnement technique exigeant. Missions Installer, administrer, exploiter et maintenir les infrastructures informatiques Assurer le maintien en conditions opérationnelles des environnements systèmes et middleware Participer à la résolution d’incidents et à l’amélioration continue de la qualité de service Contribuer aux actions de supervision, patching, sécurisation et documentation des environnements Intervenir sur des problématiques systèmes, réseau, sécurité et exploitation Environnement technique Systèmes d’exploitation : Linux, Windows, Unix Administration / serveurs / postes : Active Directory, Azure AD, Intune Ordonnancement : OpCon Patching OS / middleware : WSUS, GPO, OCS Supervision / monitoring : ELK, Zabbix, LibreNMS Outils collaboratifs : O365, Exchange Online, Intune Réseau : WAN, LAN, Fortinet Sécurité : SentinelOne
Freelance
CDI

Offre d'emploi
Ingénieur Production Middleware & Surveillance (H/F)

AVA2I
Publiée le
Ansible
CI/CD
Docker

3 ans
40k-45k €
400-550 €
Île-de-France, France
Contexte Nous recherchons un(e) Ingénieur(e) Production Middleware pour intervenir sur des environnements critiques, avec une forte composante supervision, performance et gestion de logs autour de la stack Elastic Stack (Elasticsearch, Logstash, Kibana, Beats). Le poste combine Run (MCO) et Build (projets d’évolution et d’architecture) . MCO (Run) Supervision et monitoring des environnements de production Gestion des incidents N2 / N3 Analyse de logs et troubleshooting avancé Suivi des performances et capacity planning Mise en place d’alerting et de tableaux de bord Gestion des patchs et montées de version Projets (Build) Déploiement et configuration de clusters Elasticsearch / Elastic Stack Automatisation (Ansible, scripting, CI/CD) Mise en place d’architectures haute disponibilité Optimisation des pipelines de logs (Logstash / Beats) Participation aux migrations et évolutions d’architecture Compétences techniques attendues🔹 Obligatoires Expérience significative en production (environnements critiques) Maîtrise de Elasticsearch / Elastic Stack Linux (RedHat / CentOS) Scripting (Shell, Python) Outils ITSM (ex : ServiceNow ou équivalent) Notions réseau (TCP/IP, firewall) 🔹 Appréciées Kubernetes / Docker Automatisation (Ansible, Terraform) Outils de supervision : Centreon, Zabbix, Grafana Culture DevOps Profil recherché Esprit analytique et orienté résolution d’incidents Capacité à intervenir en environnement critique Autonomie et rigueur Bon relationnel et capacité à travailler en équipe
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance

Mission freelance
Data Architecte

Deodis
Publiée le
Kubernetes
Linux
Openshift

1 an
600-630 €
Île-de-France, France
Dans le cadre de l’administration et de l’évolution d’une plateforme IA, le Data Architecte intervient sur le maintien en condition opérationnelle (MCO) et l’optimisation continue des infrastructures Kubernetes supportant les workloads data et IA. La mission couvre la conception, le déploiement et l’exploitation de clusters on-premise, cloud ou hybrides, l’automatisation de l’infrastructure via IaC, ainsi que le renforcement de la supervision et de l’observabilité. L’objectif est de garantir la disponibilité, la performance, la sécurité et la résilience des services tout en accompagnant l’intégration de nouveaux modèles et l’optimisation des pipelines de data science.
CDI

Offre d'emploi
Ingénieur de production H/F

HN SERVICES
Publiée le
Control-M
Jenkins
Linux

42k-46k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Ingénieur de Production confirmé afin de participer à l’industrialisation, l’exploitation et la supervision des applications du SI interne chez l’un de nos clients situé à Aix-en-Provence . Description du poste : Au sein d’une équipe de production applicative, vous intervenez sur un environnement critique combinant des activités de BUILD et de RUN. Vous contribuez à l’intégration, la fiabilité et la performance des applications métiers dans un contexte technique riche et exigeant. Dans ce cadre, vos principales missions seront : Activités BUILD : Participer à la conception et à la mise en œuvre des chaînes d’industrialisation et de déploiement applicatif. Intégrer de nouvelles applications dans le SI interne, du cadrage technique jusqu’à la mise en production. Mettre en place et configurer les outils de déploiement et d’ordonnancement. Définir et maintenir les standards d’exploitation, procédures et documentation associées. Collaborer étroitement avec les équipes développement, architecture et sécurité pour garantir l’exploitabilité des solutions. Activités RUN / MCO : Assurer le bon fonctionnement des applications et des infrastructures associées. Gérer les incidents de production et assurer le support N2/N3 (diagnostic, résolution, coordination). Superviser la performance, la disponibilité et la capacité des plateformes. Mettre en œuvre des actions de fiabilisation, d’automatisation et d’optimisation des environnements. Participer aux mises en production et aux interventions planifiées hors heures ouvrées. Vous évoluerez dans un environnement technique comprenant notamment Windows Server, Linux, Openshift, Mysql, SQL Server, Oracle, Jenkins, Bitbucket, XLDeploy, Zabbix, VTOM, Control-M .
Freelance

Mission freelance
Data Scientist Python, Tensorflow Nantes/st

WorldWide People
Publiée le
Python

12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Freelance

Mission freelance
Ingénieur DevOps - Confirmé - FREELANCE - Le Havre H/F

GROUPE ARTEMYS
Publiée le
IAM

1 mois
76600, Le Havre, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans le cadre d’une mission chez l’un de nos clients grand compte situé au Havre, nous recherchons un Ingénieur DevOps confirmé en freelance. Votre mission (si vous l’acceptez) : Administrer et maintenir l’infrastructure AWS (déploiement, configuration, sécurisation). Automatiser les déploiements via des pipelines CI/CD. Industrialiser l’environnement avec de l’Infrastructure as Code (Terraform, Ansible…). Gérer la conteneurisation des applications (Docker, éventuellement Kubernetes). Assurer le monitoring, le support technique et l’amélioration continue de la plateforme. L’environnement technique : Cloud AWS (EC2, VPC, IAM, S3, services associés). Outils CI/CD (GitLab CI, Jenkins ou équivalent). Infrastructure as Code : Terraform, Ansible. Conteneurisation : Docker, avec notions Kubernetes appréciées. .NET. Vous, notre perle rare : Vous êtes Ingénieur DevOps avec une solide expérience d'au moins 5 ans incluant des environnements AWS, capable d’intervenir de manière autonome sur l’automatisation, le déploiement et l’exploitation d’infrastructures cloud. Vous devez également avec une maitrise de .NET. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ : A définir selon votre expérience Durée de mission : 3 à 6 mois Rythme de télétravail : 3 jours de télétravail possibles Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
ACHETEUR Domaine Market Data/s

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Freelance

Mission freelance
Développeur & Concepteur Progiciel Kelia – Domaine Épargne Salariale / Retraite

CAT-AMANIA
Publiée le
Agile Scrum
Angular
Azure DevOps

5 mois
400-510 €
Île-de-France, France
Dans le cadre du lancement d'un programme majeur de refonte du Système d'Information (New ES SI), nous renforçons l'équipe en charge des API et du progiciel KELIA. Vous interviendrez sur les solutions AGE et OAK pour répondre aux évolutions stratégiques du métier de l'Épargne Salariale. Vos Missions : Analyse & Conception : Contribution aux spécifications générales, réalisation des études techniques détaillées et prototypage. Développement & Paramétrage : Réalisation des modules et composants logiciels, assemblage et paramétrage de l'ERP Kelia. Qualité & Tests : Mise en place de tests unitaires et d'intégration (méthodologie TDD) et traitement des anomalies. Maintenance & Évolution : Pilotage de la maintenance corrective et évolutive, documentation technique et administration des composants réutilisables. Profil recherché : Expertise confirmée sur Angular (v18 minimum) . Maîtrise des environnements CI/CD (Jenkins, GitLab CI ou Azure DevOps). Compétences solides en bases de données (MySQL, MariaDB, MongoDB). Capacité à évoluer dans un environnement Agile (Scrum) avec une forte culture DevOps. Une expérience dans le domaine de l'assurance, de la retraite ou de l'épargne collective est un atout majeur.
Freelance

Mission freelance
248629/Développeur full stack PHP Symfony Angular Lille

WorldWide People
Publiée le
PHP
Symfony

3 mois
Lille, Hauts-de-France
Développeur full stack PHP Symfony Angular Lille Savoir lire du code CodeIgniter pour pouvoir migrer sur PHP Contexte de la mission Le développeur Symfony (F0) sera le référent technique principal sur le backend de l’application. Il porte l’architecture, la qualité de code et la robustesse des APIs. Mission principale : - Concevoir et piloter l’architecture backend Symfony - Structurer l’application (bundles/modules …) - Concevoir des API robustes et évolutives pour le front Angular - Garantir la performance, la sécurité et la maintenabilité - Être le point de référence technique pour l’équipe backend - Participer activement au développement des composants critiques - Connaissance du métier industriel - Réaliser du code applicatif selon les US rédigé par le PO et validé par l’équipe de développeurs - Participer au raffinement technique des US en fonction des besoins métiers et SI - Rédiger les specs techniques pour le développement - Proposer des chiffrages réalistes en fonction du contenu des US et de leur complexité - Respecter les règles de codages et process interne à l’équipe de développeurs - Réalise les tests automatiques sur son code modifié - Participe aux tests de performance et d’optimisation de l’application - Réalise des corrections si détection de bugs en PROD ou en recette - Entretenir une veille technologique Responsabilités techniques : ➢ Architecture & conception (F0) : - Définition de l’architecture Symfony - Structuration des domaines métier - Normalisation des échanges API (DTO, validation, sérialisation) - Gestion de la version d’API ➢ Backend Symfony avancé (F0) : - PHP 8 minimum – maîtrise complète - Symfony 8.0 — maîtrise complète - Doctrine avancé (optimisation requêtes et performance) - Sécurité : JWT/OAuth2 - Gestion des erreurs et logs propres - Cache (HTTP / applicatif / Redis) ➢ Qualité & fiabilité (F1) : - Standards de code stricts - Revue de code systématique - Tests unitaires & d’intégration (PHPUnit) - Couverture de tests sur les briques critiques - Gestion de la dette technique Interface avec le front (Angular) (F1) : - Définition claire des contrats d’API - Documentation API (API Plateform) - Gestion cohérente des formats de réponse - Gestion des erreurs exploitable côté front - Support aux devs front sur l’intégration Environnement & outillage (F0) : - Git — stratégie de gestion de branches à plusieurs dév - CI/CD backend - Docker maîtrisé (Kubernetes, AWS, S3) - Monitoring & logs (Datadog) - Outils qualité (Sonarcube) - Bonne compréhension infra (reverse proxy, cache, queue, DB) - Xray (outil de tests) - PostgreSQL - Utilisation de XDebug - Jira Présence aux Events Agile (F1) : - Daily (1 fois/jour), Raffinement technique (2 fois/semaine) - 1 fois / semaine, 1 des évènements suivants : o Poker planning, Backlog refinement, Sprint planning, Retrospective, etc. Objectifs et livrables Savoir lire du code CodeIgniter pour pouvoir migrer sur PHP Compétences demandées Compétences Niveau de compétence PHP Expert codeIgniter Élémentaire angular Avancé Symfony PHP Expert
Freelance

Mission freelance
Ingénieur Cloud Senior

Celexio
Publiée le
Amazon S3
Apache Airflow
API

3 mois
400-550 €
Paris, France
Bonjour à tous, Nous recherchons pour le compte d'un de nos clients un Ingénieur Cloud Senior Missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles Industrialiser les prototypes de recherche en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production, y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure.
Freelance

Mission freelance
SRE Observabilité

HAYS France
Publiée le
Datadog
Grafana
Kubernetes

3 ans
100-470 £GB
Lille, Hauts-de-France
Votre mission : - Design, intégration, templating, déploiement, parametrage des composants de la plateforme d'Observabilité - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'Observabilité - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'Observabilité de la collecte (logs, métriques, traces) à l'exploitation dans les backends pour l'amélioration de la disponibilité et la performance de leurs applications/projets métiers (à l'international) - Rédactions des ADR, de la documentation, des RUN books, afin de diffuser la connaissance auprès des équipes techniques internes. Environnement technique : Vous avez une bonne connaissance de la sécurité et des architectures cloud. Vous disposez notamment des connaissances techniques suivantes : - Maîtrise de GCP, Azure serait un plus. - Maitrise avancée de Kubernetes - Maitrise avancée de Datadog, expérience dans un environnement engageant de forts volumes - Bonne connaissance de la plateforme Grafana, build et run en environnement engageant de forts volumes - Connaissances OpenTelemetry - Expérience en instrumentation d’applications - Maîtrise de Terraform/AWX - Connaissances bonnes pratiques de développement, IaC, Python, Go serait un plus - Culture SRE et SLO
Freelance
CDI

Offre d'emploi
Data Ingénieur (32)

VISIAN
Publiée le
BigQuery
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Data IngénieurPrestations attenduesPrestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
DATA SCIENTIST

Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Freelance

Mission freelance
DATA ANALYST

Geniem
Publiée le
Python

6 mois
Lille, Hauts-de-France
Data Analyste Le domaine Search&amp et Publication recherche un/une data analyst pour mener à bien des projets de data analyse et de dashboarding Objectif global du projet : Accompagner le métier Search&amp Publication en réalisant des études statistiques, des explorations de données et en construction des Dashboards Contrainte forte du projet GCP + PowerBI + Connaissance Web Les livrables sont Analyses statistiques Compétences techniques : Python, SQL - Confirmé - Impératif Dashboards (Power BI + Data Studio) - Confirmé - Impératif Connaissance données Web - Confirmé - Impératif Google Cloud Platform - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Mission : - accompagner et challenger le métier - être force de proposition sur des solutions adéquats et innovantes pour répondre aux problématiques métiers - réaliser des analyses statistiques préparatoires - réaliser des dashboards clairs et synthétiques - être pédagogue & autonome - communiquer, partager avec les autres interlocuteurs de la direction IT (data scientists, chef de projets et data ingénieurs) - savoir communiquer & restituer des résultats concrets SA MISSION : Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. SES LIVRABLES : - Modèle et structuration des données - Algorithme / Méthode statistique
5709 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous