TCC Ia 3
TCC Ia 3
TCC Ia 3
i
ii
Agradecimentos
iii
iv
Resumo
Dicalcogenetos de Metais de Transição (DMTs) são compostos quı́micos definidos pela equação
MQ2 , onde M é um metal de transição, como molibdênio (Mo) e tungstênio (W), e Q pode ser
enxofre (S), telúrio (Te) ou selênio (Se). Eles possuem uma grande gama de morfologias, di-
mensionalidades e aplicações e, devido a essas propriedades, tem sido objeto de vários estudos
desde a década de 1960, com o intuito de compreender melhor suas propriedades. No entanto,
um empasse nesses estudos é o requisito computacional para se calcular essas propriedades,
pode-se levar dias para que terminem. Neste quesito, o aprendizado de máquina é importante
para a quı́mica pois, se for possı́vel encontrar um erro baixo aceitável, os milissegundos de
predição das ditas propriedades aceleraria em muito os estudos dessas estruturas. Portanto
neste projeto, foi utilizado diferentes modelos de regressão e variações da Matriz de Coulomb
para prever a energia total das moléculas de DMTs. Como resultado, a regressão Linear com os
autovalores da Matriz de Coulomb ordenada obteve um erro médio de 3.31e-5%, equivalente à
um erro normalizado de 6.3kcal/mol, um erro elevado impossı́vel de substituir os cálculos atu-
ais, que possuem um erro de 1kcal/mol. Concluindo que a Matriz de Coulomb não é o suficiente
para gerar os erros baixos esperados, sendo necessário uma representação mais robusta.
v
vi
Sumário
1 Introdução 1
2 Metodologia 5
2.1 Cronograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Representação molecular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Modelos de Regressão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.1 Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4.2 Kernel Ridge Polinomial . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4.3 Redes Neurais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4.4 Outros modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4.5 Validação e Métrica de Erro . . . . . . . . . . . . . . . . . . . . . . . 9
3 Desenvolvimento e Resultados 11
3.1 Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Representação via matriz de Coulomb . . . . . . . . . . . . . . . . . . . . . . 12
3.3 Redes Neurais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3.1 Optimizers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3.2 Configuração das camadas . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4 Resultados dos diversos algoritmos de regressão . . . . . . . . . . . . . . . . . 14
3.5 Regressão da energia total . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.6 Resultados com intervalos entre N . . . . . . . . . . . . . . . . . . . . . . . . 16
3.7 Discussão dos Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4 Conclusão 19
4.1 Discussões finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 Considerações sobre o curso de graduação . . . . . . . . . . . . . . . . . . . . 20
4.3 Sugestões para o curso de graduação . . . . . . . . . . . . . . . . . . . . . . . 20
4.4 Planos para o futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Referências 21
vii
Capı́tulo
1
Introdução
Machine learning (ML) é um campo da inteligência artificial que concerne o aprendizado pro-
gressivo de máquina através de algoritmos estatı́sticos [1]. O desenvolvimento da área de ML
se deu para mitigar problemas que surgiam de processos de triagem onerosos [2], baseados em
tentativa e erro [3]. O advento de técnicas de ML, então, foi integrado a várias áreas que de-
mandam a projeção de resultados com a observância de dados prévios, como na engenharia de
processos e controle, além de vários campos de novos materiais para otimização de estocagem
e geração de energia [1]. Neste sentido, a aplicação de técnicas de ML na área da quı́mica vem
ganhando crescente atenção na literatura [4], tendo sido aplicada com sucesso em estudos de
reações quı́micas, notadamente no sentido de predição de performance de dada reação e quais
os produtos das reações quı́micas estudadas. A integração de técnicas de ML com áreas da
quı́mica foi determinante para o desenvolvimento de pacotes de ML como o python materials
genomics (Pymatgen) [5], Factsage [6] e Aflow. Desta maneira, se desenvolveu o panorama
de pacotes de alto rendimento high-throughput (HT) para o desenvolvimento de pesquisas que
exijam menor tempo para o desenvolvimento de áreas que possam ser industrialmente úteis no
desenvolvimento de novos materiais funcionais [7].
Dentre os materiais funcionais que têm ganho grande destaque na literatura estão materiais
bidimensionais (2D), e, em particular, dicalcogenetos de metais de transição bidimensionais
(DMTs 2D) [8]. Os DMTs 2D são definidos pela equação quı́mica MQ2 , na qual M é o metal
de transição, como Mo, e Q = S, Se, Te. A variedade de composições quı́micas e os diferentes
ambientes de coordenação no entorno dos átomos metálicos (politipo), como o octaédrico (1T),
octaédrico distorcido (1T0 ) e trigonal prismática (2H), faz com que DMTs 2D possuam grande
variedade de propriedades estruturais [9], eletrônicas [10] e energéticas [4] que os candidatam
para uma gama sem precedentes de aplicações, que vão de catálise (como na reação de evolução
1
2 Capı́tulo 1. Introdução
do hidrogênio e de redução do CO2 ) até o uso como dispositivos fotovoltaicos [11] de espessura
atômica, uma vez que as camadas de DMTs 2D de metais do grupo 6 são compostas de planos
metálicos entremeados por planos de Q, sendo estas camadas interagentes através da ação de
interações de van der Waals [7].
Em particular, DMTs baseados em molibdênio (Mo) possuem em sua carta de compostos o
MoS2 , DMT 2D mais popularmente estudado na literatura [7], que tem encontrado validações
teóricas e experimentais para os mais diversos usos de DMTs 2D. Por outro lado, o MoTe2
tem sido o DMT 2D baseado em Mo com o menor número de estudos reportados na literatura
[12], revelando, no entanto, propriedades distintas de suas contrapartes, servindo de base para
o estudo de “novas fı́sicas”, como para semimetais de Weyl [13], isto é, materiais que possuem
carreadores de carga que se comportam como partı́culas sem massa no ponto no qual as bandas
de condução e valência se cruzam na forma de uma dispersão linear (nodo de Weyl). DMTs ba-
seados em tungstênio (W), como o WS2 , são particularmente importantes devido ao maior raio
atômico do W quando comparado com o Mo, o que permite que DMTs com W na composição
sejam mais flexı́veis em relação à modulação de propriedades fı́sico-quı́micas através de dopa-
gem [14], além de serem aplicáveis para materiais com aplicação em fotônica [15], fotocatálise
[16] e dispositivos com alta pseudocapacitância [17].
Para que se possa compreender a fı́sico-quı́mica básica de DMTs 2D é necessário que se obtenha
conhecimento em nı́vel atomı́stico sobre estes sistemas. Tal conhecimento detalhado é capaz
de prover princı́pios de design [18] DMTs 2D energeticamente estáveis e que possam servir
como materiais funcionais [7]. Para a avaliação de propriedades fı́sico-quı́micas de DMTs 2D
têm sido utilizada como ferramenta de cálculo o formalismo da teoria do funcional da densidade
(DFT) [19], implementado na forma da resolução auto-consistente das equações de Kohn–Sham
(KS) [20] em códigos computacionais que diferem na representação dos orbitais de KS. A
resolução das equações de KS traz consigo uma escala de tempo que varia entre dias ou semanas
dependendo do tamanho do sistema de DMT 2D de tamanho finito (nanofloco) investigado.
Ademais, as propriedades fı́sico-quı́micas de nanoflocos de DMTs 2D dependem sensivelmente
da geometria do nanofloco [12], o que faz com que a predição de propriedades fı́sico-quı́micas
destes sistemas precise envolver amostragens de configurações. Experimentalmente, o método
de sı́ntese mais utilizado para nanoflocos de DMTs 2D, chemical vapor deposition, CVD [21],
permite a sı́ntese de nanoflocos de distintas geometrias com politipos distintos, fato que inte-
gra predições teóricas com a possibilidade de sı́ntese de compostos previamente investigados
através da DFT. Tendo em vista o aumento da agilidade da pesquisa de nanoflocos de DMTs 2D,
diminuindo custo e tempo computacional, isto é, diminuir a escala de tempo de dias para tem-
pos irrisórios, na escala de minutos ou segundos, passa pela integração adequada de abordagens
de ML aplicadas a estes sistemas [1].
Patra et al. [22] combinaram algoritmos genéticos (GAs) para a geração de estruturas com
vacâncias de S de monocamadas de MoS2 otimizadas com dinâmica molecular (DM) para com-
preender os mecanismos de extensão e coalescência de defeitos neste material em escalas de
3
2
Metodologia
Para realizar o objetivo de aplicar modelos de aprendizado de máquinas nos DMTs e prever as
suas propriedades de maneira mais rápida que a DFT, alguns passos são necessários: reunir,
organizar e padronizar os dados existentes; representar as moléculas em um vetor de carac-
terı́stica; selecionar os modelos para regressão, treiná-los e finalmente testá-los.
Para isso, será utilizada a linguagem Python [26], especificamente as bibliotecas: numpy, scikit-
learn e keras. O Numpy [27] fornece diversas funções de manipulação de vetores, álgebra linear
e outras operações matemáticas mais genéricas. O Scikit-Learn [28] é uma das bibliotecas mais
utilizadas em Python para aprendizado de máquina, possuindo diversos métodos para mineração
de dados e análise de dados. Por fim, o Keras [29] fornece uma interface de alto nı́vel à bibli-
oteca TensorFlow [30], que proveem rotinas de alto desempenho para treinamento de modelos
de redes neurais.
2.1 Cronograma
Este trabalho teve inı́cio em Janeiro de 2019 como um projeto de Iniciação Cientı́fica. O crono-
grama então foi criado de maneira que o primeiro semestre fosse realizado atividades seguindo
a mesma sequência de etapas aprendidas na disciplina SCC5871 de Aprendizado de Máquina.
Veja a tabela 2.1 para mais detalhes.
5
6 Capı́tulo 2. Metodologia
2.2 Dados
Os dados do projeto são formados por 6 conjuntos de treinamento, compostos por isômeros
bidimensionais de tamanho finito (nanoflocos) e separados pela configuração molecular. Os
conjuntos são formados por: (i) (MoQ2 )n , Q = S, Se, Te com n = 1 – 16 e (ii) (WQ2 )n , Q =
S, Se, Te com n = 1 – 16, 36, 66, 105. Os conjuntos de (i) foram obtidos através do trabalho
de Caturello et al. [12], enquanto que do trabalho de Da Silva et al. [18] foram obtidos os
conjuntos utilizados em (ii). Para o conjunto de teste utilizou-se nanoflocos gerados através do
método drunk-walk do próprio grupo QTNano.
Para cada uma dessas moléculas, existe um arquivo de saı́da do FHI-aims [31], o algoritmo
utilizado para a calcular as energias totais dos isômeros, que utiliza o formalismo da teoria do
funcional de densidade (DFT). O processo de avaliação de energia total é associado ao processo
de relaxação estrutural, algoritmo que causa transformações na estrutura molecular em busca
da mı́nima energia, como critério de parada, o processo é terminado quando a diferença de
energia entre dois passos ou a força total atuando sobre os átomos do sistema é abaixo de um
threshold. Uma vez que um mı́nimo de energia potencial é alcançado, a relaxação é finalizada.
As propriedades fı́sico-quı́micas dos sistemas otimizados em todos os passos de otimização dos
cálculos são calculadas e estocadas nos arquivos de saı́da do programa.
A partir desse arquivo de saı́da, foi aplicado expressões regulares para extrair as informações,
que são: a estrutura molecular e a energia total. A estrutura é salva em um arquivo no formato
”M(n)Q(2*n) numero-da-estrutura id-da-iteração.xyz”, contendo cada átomo da molécula se-
guido da sua posição no eixo X, Y e Z, e a energia (em elétrons-volt) de cada molécula é salva
em uma tabela .csv.
O próximo passo é verificar a integridade desses dados, foi observado que existem átomos di-
ferentes com a mesma energia, devido ao truncamento que o FHI-aims realiza na escrita do
arquivo de saı́da, ou seja, as variações foram pequenas o suficiente para as energias trunca-
das serem iguais. Portanto, para que o conjunto se torne balanceado com energias únicas, foi
retirado as duplicadas para moléculas de mesmo tamanho.
2.3. Representação molecular 7
Em resumo, para cada conjunto, existe os arquivos .xyz contendo a estrutura de cada molécula
dos conjuntos e uma tabela .csv com o nome da molécula e sua energia, onde todas as energias
são únicas.
na qual se utiliza as coordenadas cartesianas, {Rα }, enquanto que Zα são as cargas nucleares
dos α-ésimos átomos componentes dos sistemas.
O tamanho da matriz não é invariável pelo da molécula, portanto ela é transformada em uma
matriz MxM, onde M é o tamanho máximo das moléculas do conjunto, e os novos espaços
são preenchidos com zero. Em sequência, é observado que a matriz é simétrica pela diagonal,
portanto apenas a triangular superior é utilizada, achatando-a para finalmente considerar essa
representação um vetor de caracterı́stica.
As outras representações possuem passos extras: a matriz de Coulomb Ordenada é ordenada
pela soma das linhas antes da separação da triangular superior; os Autovalores são literalmente
os autovalores da matriz ordenada, gerando uma representação linear ao tamanho da molécula
ao invés da quadrática das matrizes anteriores. Em resumo, os arquivos .xyz são transformados
em vetores de caracterı́sticas, existem aqueles quadráticos: a matriz original e a ordenada; e
linear: os autovalores.
no projeto: Linear, Kernel Ridge, Rede Neural, K-Nearest Neighbors (KNN), Decision Tree e
Random Forest [24, 32, 33].
2.4.1 Linear
Sendo uma das regressões mais simples, a Linear calcula um hiperplano que minimize a soma
das distâncias entre a propriedade sendo prevista e o hiperplano. Se o problema for linearmente
separável, esse modelo produz bons resultados. A regressão é dada pela fórmula:
m
Y = β0 + ∑ X j β j (2.2)
j=1
Figura 2.1: Exemplo de uma rede neural MLP, cada nó de camadas ocultas ou de saı́da são
resultados de um valor bias com a soma dos valores da camada anterior multiplicados pelos
respectivos pesos (marcados pelas linhas). O valor do nó então passa por uma função de
ativação, como um efeito para simular a ativação de um neurônio. Então, comparando o
resultado da camada de output com o valor dado de treino, os pesos e bias são atualizados de
maneira a minimizar o erro.
molécula, maior sua energia total, portanto o MAE resultaria em um erro médio aparentemente
inaceitável para moléculas com tamanho pequeno, mas utilizando a porcentagem é mais seguro
afirmar a acurácia dos modelos.
Capı́tulo
3
Desenvolvimento e Resultados
3.1 Dados
Após a extração dos dados únicos, os conjuntos de dados para treino são compostos dos seguin-
tes valores:
Adicionalmente, para que seja realizado testes com estruturas com n ≥ 16, foram adicionadas
novas moléculas para os conjuntos WQ2 , com n = 36, 66 e 105.
11
12 Capı́tulo 3. Desenvolvimento e Resultados
Figura 3.2: Quantidade de moléculas adicionais para os treinos e testes com n ≥ 16. Na
legenda, o número após o conjunto é o total de moléculas daquele grupo.
Tabela 3.1: MAPE das diferentes representações das moléculas do conjunto MoTe2 .
Observando os resultados da tabela 3.1 acima, pode-se verificar que, do ponto de vista do apren-
dizado de máquina, tanto para a regressão linear quanto para a MLP, os autovalores resultaram
no menor erro.
3.3.1 Optimizers
A biblioteca Keras possuem uma série de “optimizers”, heurı́sticas responsáveis por definir
parâmetros importantes das redes neurais, como a taxa de aprendizado, momento e outros es-
pecı́ficos de cada heurı́stica.
Tabela 3.2: Exploração dos optimizers. Parâmetros especificados são aqueles que, no treino
com menor MAPE, se diferencia do valor padrão.
Optimizer MAPE
Adadelta() 0.0149
SGD() 0.0033
Adamax(lr=0.01) 0.0032
Adagrad(lr=0.3) 0.0026
RMSprop() 0.0021
Nadam(schedule decay=0.001) 5.18e-4
Adam() 3.41e-4
A partir desses resultados, o optimizer Adam default foi utilizado para os diversos treinos.
Tabela 3.3: Evolução dos modelos MLP com a representação sendo os autovalores da Matriz
de Coulomb. Os dados utilizados são os do conjunto MoTe2 . Nos Modelos, cada número
significa a quantidade de nós em cada camada daquele modelo.
Modelo MAPE
100, 1 3.73e-2
50, 1 1.84e-2
25, 1 1.62e-2
1, 1 7.05e-4
1 2.24e-4
Figura 3.3: O MAPE dos diferentes algoritmos de regressão, utilizando o conjunto (MoTe2 )n ,
n = 1 – 16.
3.5. Regressão da energia total 15
O modelo com menor erro se tornou o 1NN, o vizinho mais próximo, apesar do erro ser menor
que a metade do Linear, o 1NN não é necessariamente o melhor regressor, ele possui alguns
problemas que será evidenciado no próximo passo: se houver intervalos de tamanhos que não
16 Capı́tulo 3. Desenvolvimento e Resultados
existem no conjunto de treino, o 1NN gera erros muito piores que os outros, já que ele atribui
uma energia de uma molécula de tamanho diferente.
A rede neural MLP neste caso é uma regressão Linear com passos extras desnecessários, ge-
rando um resultado que, com essa configuração, nunca vai ser melhor que a própria Linear.
A Linear em si é a melhor regressão, isso pode se dar pelo fato que todas as informações em
torno das moléculas possuem comportamento linear: o formato das moléculas (MQ2 )n é linear
pelo N, a representação com os autovalores, as energias das moléculas de treino (veja a figura
3.6). Todas essas caracterı́sticas fazem a regressão Linear ser surpreendentemente o melhor
modelo de regressão para esses tipos de DMTs.
Figura 3.6: Resultado da regressão com o conjunto (WTe2 )n , n = 1 – 7, 9 – 16, 36, 66, 105.
Testada com moléculas de N = 8, 26, 51, 85.
Figura 3.7: Comparação entre as energias totais resultantes dos cálculos de DFT, do modelo
Linear e do MLP para WTe2n , n = 8. As configurações são compostas apenas das moléculas
pré-expansão dos dados, que são as moléculas finais da relaxação da DFT, ordenadas pela
energia total da DFT.
Na questão do modelo linear, a regressão realizada está mais dependente do tamanho da molécula
que a estrutura dela em si. Observando o comportamento das energias (figura 3.6), é possı́vel ob-
servar claramente a relação entre o tamanho da molécula e a energia, algo que é óbvio do ponto
de vista quı́mico. Mas para o aprendizado de máquina, o modelo de regressão não “sabe” que
deve utilizar a estrutura da molécula, é algo que o vetor de caracterı́stica deve deixar explı́cito,
18 Capı́tulo 3. Desenvolvimento e Resultados
4
Conclusão
19
20 Capı́tulo 4. Conclusão
[1] Haitao Zhao, Collins I. Ezeh, Weijia Ren, Wentao Li, Cheng Heng Pang, Chenghang
Zheng, Xiang Gao, and Tao Wu. Integration of machine learning approaches for acce-
lerated discovery of transition-metal dichalcogenides as hg0 sensing materials. Applied
Energy, 254:113651, 2019.
[2] Matthias Rupp, Alexandre Tkatchenko, Klaus-Robert Müller, and O. Anatole von Lilien-
feld. Fast and accurate modeling of molecular atomization energies with machine learning.
Phys. Rev. Lett., 108(5):058301, Jan. 2012.
[3] Sherif Abdulkader Tawfik, Olexandr Isayev, Catherine Stampfl, Joe Shapter, David A.
Winkler, and Michael J. Ford. Efficient prediction of structural and electronic properties of
hybrid 2d materials using complementary dft and machine learning approaches. Advanced
Theory and Simulations, 2(1):1800128, 2019.
[4] Manish Chhowalla, Hyeon Suk Shin, Goki Eda, Lain-Jong Li, Kian Ping Loh, and Hua
Zhang. The Chemistry of Two-Dimensional Layered Transition Metal Dichalcogenide
Nanosheets. Nat. Chem., 5(4):263–275, apr 2013.
[5] Shyue Ping Ong, William Davidson Richards, Anubhav Jain, Geoffroy Hautier, Michael
Kocher, Shreyas Cholia, Dan Gunter, Vincent L. Chevrier, Kristin A. Persson, and Ger-
brand Ceder. Python materials genomics (pymatgen): A robust, open-source python li-
brary for materials analysis. Computational Materials Science, 68:314 – 319, 2013.
21
22 REFERÊNCIAS
[7] Sajedeh Manzeli, Dmitry Ovchinnikov, Diego Pasquier, Oleg V. Yazyev, and Andras Kis.
2D Transition Metal Dichalcogenides. Nat. Rev. Mater., 2(8):17033–17047, jun 2017.
[8] Ping Cui, Jin-Ho Choi, Wei Chen, Jiang Zeng, Chih-Kang Shih, Zhenyu Li, and Zhenyu
Zhang. Contrasting Structural Reconstructions, Electronic Properties, and Magnetic Or-
derings along Different Edges of Zigzag Transition Metal Dichalcogenide Nanoribbons.
Nano Lett., 17(2):1097–1101, jan 2017.
[9] Eric M. Vogel and Joshua A. Robinson. Two-Dimensional Layered Transition-Metal Di-
chalcogenides for Versatile Properties and Applications. MRS Bull., 40(07):558–563, jul
2015.
[10] Kin Fai Mak and Jie Shan. Photonics and Optoelectronics of 2D Semiconductor Transition
Metal Dichalcogenides. Nat. Photon., 10(4):216–226, apr 2016.
[11] Deep Jariwala, Tobin J. Marks, and Mark C. Hersam. Mixed-dimensional van der waals
heterostructures. Nat. Mater., 16(2):170–181, aug 2016.
[13] Youngdong Yoo, Zachary P. DeGregorio, Yang Su, Steven J. Koester, and James E. Johns.
In-plane 2H-1T0 MoTe2 homojunctions synthesized by flux-controlled phase engineering.
Adv. Mater., 29(16):1605461, feb 2017.
[14] Zhengyang Cai, Bilu Liu, Xiaolong Zou, and Hui-Ming Cheng. Chemical vapor depo-
sition growth and applications of two-dimensional materials and their heterostructures.
Chem. Rev., 118(13):6091–6133, jan 2018.
[15] Sungwook Hong, Aravind Krishnamoorthy, Pankaj Rajak, Subodh Tiwari, Masaaki Mi-
sawa, Fuyuki Shimojo, Rajiv K. Kalia, Aiichiro Nakano, and Priya Vashishta. Com-
putational synthesis of MoS2 layers by reactive molecular dynamics simulations: Initial
sulfidation of MoO3 surfaces. Nano Lett., 17(8):4866–4872, jul 2017.
[16] Yanfeng Chen, Jinyang Xi, Dumitru O. Dumcenco, Zheng Liu, Kazu Suenaga, Dong
Wang, Zhigang Shuai, Ying-Sheng Huang, and Liming Xie. Tunable band gap photo-
luminescence from atomically thin transition-metal dichalcogenide alloys. ACS Nano,
7(5):4610–4616, apr 2013.
[17] Ali Eftekhari. Low Voltage Anode Materials for Lithium-Ion Batteries. Energy Storage
Materials, 7:157–180, apr 2017.
REFERÊNCIAS 23
[18] Augusto C. H. Da Silva, Naidel A. M. S. Caturello, Rafael Besse, Matheus P. Lima, and
Juarez L. F. Da Silva. Edge, size, and shape effects on WS2 , WSe2 , and WTe2 nanoflake
stability: Design principles from an ab initio investigation. Phys. Chem. Chem. Phys.,
21(41):23076–23084, 2019.
[19] P. Hohenberg and W. Kohn. Inhomogeneous electron gas. Phys. Rev., 136(3B):B864–
B871, Nov. 1964.
[20] W. Kohn and L. J. Sham. Self-consistent equations including exchange and correlation
effects. Phys. Rev., 140(4A):A1133–A1138, Nov. 1965.
[21] Jeffrey D. Cain, Fengyuan Shi, Jinsong Wu, and Vinayak P. Dravid. Growth Mechanism of
Transition Metal Dichalcogenide Monolayers: The Role of Self-Seeding Fullerene Nuclei.
ACS Nano, 10(5):5440–5445, may 2016.
[22] Tarak K. Patra, Fu Zhang, Daniel S. Schulman, Henry Chan, Mathew J. Cherukara, Mau-
ricio Terrones, Saptarshi Das, Badri Narayanan, and Subramanian K. R. S. Sankarana-
rayanan. Defect dynamics in 2-d mos2 probed by using machine learning, atomistic si-
mulations, and high-resolution microscopy. ACS Nano, 12(8):8006–8016, 2018. PMID:
30074765.
[23] Pere Miró, Martha Audiffred, and Thomas Heine. An atlas of two-dimensional materials.
Chem. Soc. Rev., 43:6537–6554, 2014.
[24] Trevor Hastie, Robert Tibshirani, and Jerome Friedman. Elements of Statistical Learning.
Springer Series in Statistics, 2 edition, 2016.
[25] Grégoire Montavon, Katja Hansen, Siamac Fazli, Matthias Rupp, Franziska Biegler, An-
dreas Ziehe, Alexandre Tkatchenko, Anatole V. Lilienfeld, and Klaus-Robert Müller. Le-
arning invariant representations of molecules for atomization energy prediction. In F. Pe-
reira, C. J. C. Burges, L. Bottou, and K. Q. Weinberger, editors, Advances in Neural
Information Processing Systems 25, pages 440–448. Curran Associates, Inc., 2012.
[26] G. van Rossum. Python tutorial. Technical Report CS-R9526, Centrum voor Wiskunde
en Informatica (CWI), Amsterdam, May 1995.
[27] Travis E Oliphant. A guide to NumPy, volume 1. Trelgol Publishing USA, 2006.
[30] Martin Abadi, Paul Barham, Jianmin Chen, Zhifeng Chen, Andy Davis, Jeffrey Dean,
Matthieu Devin, Sanjay Ghemawat, Geoffrey Irving, Michael Isard, Manjunath Kudlur,
Josh Levenberg, Rajat Monga, Sherry Moore, Derek G. Murray, Benoit Steiner, Paul
Tucker, Vijay Vasudevan, Pete Warden, Martin Wicke, Yuan Yu, and Xiaoqiang Zheng.
Tensorflow: A system for large-scale machine learning. In 12th USENIX Symposium on
Operating Systems Design and Implementation (OSDI 16), pages 265–283, 2016.
[31] Volker Blum, Ralf Gehrke, Felix Hanke, Paula Havu, Ville Havu, Xinguo Ren, Karsten
Reuter, and Matthias Scheffler. Ab Initio Molecular Simulations With Numeric Atom-
Centered Orbitals. Comp. Phys. Comm., 180(11):2175–2196, nov 2009.
[32] Christopher M. Bishop. Pattern Recognition and Machine Learning. Springer Series in
Statistics, 2011.
[33] Simon Haykin. Neural Networks and Learning Machines. Pearson Prentice Hall, 3 edition,
2008.
[34] Zhenqin Wu, Bharath Ramsundar, Evan N. Feinberg, Joseph Gomes, Caleb Geniesse,
Aneesh S. Pappu, Karl Leswing, and Vijay Pande. Moleculenet: A benchmark for mole-
cular machine learning, 2017.