Apresentamos um método do Newton regularizado com convergência global para resolver problemas de otimização irrestrita em que a função objetivo é convexa e possui Hessiana globalmente Lipschitz contínua. Explorando a convexidade da função objetivo, o método combina ideias de regularização cúbica e da penalização de Levenberg-Marquardt, adotando o parâmetro $\lambda_k = \sqrt{H\|\nabla f(x^k)\|}$ e considerando a atualização $x^{k+1} = x^k - \bigl(\nabla^2 f(x^k) + \lambda_k I\bigr)^{-1} \nabla f(x^k),$ onde $H > 0$ é a constante de Lipschitz da Hessiana. Sob hipóteses padrão para esse tipo de método, provamos que o algoritmo apresenta convergência global de ordem $\mathcal{O}(1/k^2)$ para funcões convexa e convergência local superlinear para funcões $\mu$-fortemente convexa. Além disso, propomos estratégias adaptativas de busca linear eficientes para determinar boas aproximações da constante $H$.